• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

dampflokfreund

Freizeitschrauber(in)
Ja wir reden hier von einem SOC, der die Daten sowieso in ein und den selben Speicher packen muss.
Hast du einen SOC wo alle Spieldaten in GDDR6 lagern und genau so fix angebunden sind? Wohl kaum.

Der PC muss von der Platte in den Dram via PCI Express in den GPU Speicher. Ganz anderes Prinzip, die langsamste Verbindung ist entscheidend.
Der geteilte RAM der Konsolen ist Fluch und Segen zugleich, man darf nicht nur die positiven Aspekte betrachten. Der PC hat durch DRAM und VRAM auch ein paar entscheidende Vorteile.

Ja, alle Daten sind im extrem schnell angebundenen GDDR6 RAM, nur, System-Daten wie Audio, Game Logik etc also das was bei uns in den RAM kommt, braucht diese Geschwindigkeit gar nicht. Die brauchen eher geringe Latenzen. DRAM hat deutlich geringere Latenzen als GDDR6, demzufolge eignet sich der DRAM deutlich besser für die Systemdaten als GDDR.

Dann muss ja auch noch bedenken, dass es geteilter RAM ist. Je nachdem wie viele Systemdaten in den Speicher kommen, bleibt da logischerweise weniger als Videospeicher übrig. Microsoft hat das so kalkuliert, dass 10 GB bei der Series X als GPU-optimierter Speicher über einen schnelleren Bus angebunden sind, 6 GB an einen langsameren für Systemdateien. Von den 6 GB gehen 2.5 GB für das OS drauf, bleiben also noch 3.5GB für die CPU. Aabber, es ist nicht so, dass die CPU jetzt überhaupt keinen Zugriff mehr auf den GPU-optimierten Speicher hätte, es ist ja immer noch Shared Memory, die Systemdaten werden in vielen Fällen mehr als 3.5GB benötigen und das wird dann natürlich vom Fast-Bus, dem 10 GB GPU optimierten Speicher genommen. In der Praxis sollte die Series X eher zwischen 6 und 10 GB als Videospeicher zur Verfügung haben, je nach dem wie viel die Systemdaten belegen. Das sehen wir auch daran, dass sie bei CPU aufwendigen Titeln mit Raytracing wie Watch Dogs und Control die mittlere Texturdetailstufe nutzt, trotz dass sie ja eigentlich 16 GB RAM hat. Nur bleibt davon als Videospeicher halt nicht mehr viel übrig, nachdem man Systemdaten und OS-Reservierung abgezogen hat.
Das hast du halt auf dem PC nicht, da hast du z.B. mit einer 3080 fixe 10 GB, die exklusiv als Videospeicher genutzt werden, das sollte man als Vorteil nicht unterschätzen.
Wie bereits von anderen erwähnt, kann DirectStorage die GPU relevanten Daten nun direkt in den VRAM schießen, während sich die CPU weiterhin genüsslich mit den Systemdaten vergnügen kann.
Die Mods auf Nexus schaffen Abhilfe? Ich schaue es mir mal an. Danke... :-)
Nicht die Mods, die hab ich nur als Quellenangaben für meine Behauptungen genutzt. Der DLSS Sharpening Mod ist nicht so gut wie CAS Reshade oder NV Control Panel, wahrscheinlich isses defekt.
Ich empfehle dir, Reshade zu laden und dann AMD CAS zu aktivieren. Stelle es auf einen hohen Wert ein, wie 0.7 CAS und 0.7 Sharpening, dann sieht es ähnlich aus wie das TAA Sharpening. Wenn du dann mit Nativ vergleichst, schalte es wieder aus, denn sonst ist TAA doppelt geschärft!
 

Gurdi

Kokü-Junkie (m/w)
Ich will diesen Offtopi jetzt hier nicht zu lange ziehen, ich erkenne die Vorteile der Technik und begrüße das ausdrücklich.Ich sehe dennoch auf einem PC keine Ersparnis auf dem Vram dadurch.
Ein PC ist wie du richtig sagtst,keine Konsole.
 

gloriav

PC-Selbstbauer(in)
RT ist unnötig. alles Effekte die man auch ohne RT hinbekommt.
aber nvidia muss hier dank hype irgendwas teuer verkaufen. läuft.
Komplett siehe hitman 3. hatte mit der 3080 in allen games off ausser metro. Selbst das war nur bei 60-70fps in 1440p oft zu dunkel. Realistisch ist da gar nichts solange nicht alles darauf basiert. Abzocke aber wir ham diekohle e
 

bynemesis

Software-Overclocker(in)
Komplett siehe hitman 3. hatte mit der 3080 in allen games off ausser metro. Selbst das war nur bei 60-70fps in 1440p oft zu dunkel. Realistisch ist da gar nichts solange nicht alles darauf basiert. Abzocke aber wir ham diekohle e

Anständige Reflektionen bekommt zB. Battlefront 2 hin. Wer braucht da noch RT?
 

Two-Face

PCGH-Community-Veteran(in)
RT ist unnötig. alles Effekte die man auch ohne RT hinbekommt.
1. Nö.
Raytracing basiert auf einem völlig anderen Konzept.
Anständige Reflektionen bekommt zB. Battlefront 2 hin. Wer braucht da noch RT?
2. Battlefront 2 nutzt so genannte Stochastic Screen Space Reflections, im Prinzip bereits ein Raytracing-Ansatz.

Immer wieder lustig, wie mancher es einfach immernoch nicht schnallt, dass Raytracing nicht bloß irgend' ein Beleuchtungseffekt ist, sondern eine echte Simulation. ;)
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
1. Nö.
Raytracing basiert auf einem völlig anderen Konzept.

2. Battlefront 2 nutzt so genannte Stochastic Screen Space Reflections, im Prinzip bereits ein Raytracing-Ansatz.

Immer wieder lustig, wie mancher es einfach immernoch nicht schnallt, dass Raytracing nicht bloß irgend' ein Beleuchtungseffekt ist, sondern eine echte Simulation. ;)
Das RTX eine echte Simulation von Licht ist, mit all den physikalischen Effekten, würde ich klar verneinen. Es simuliert die Effekte von Licht in einem sehr begrenztem Spektrum und diese Effekte kann man sehr wohl auch anders simulieren.
 

Two-Face

PCGH-Community-Veteran(in)
Das RTX eine echte Simulation von Licht ist, mit all den physikalischen Effekten, würde ich klar verneinen. Es simuliert die Effekte von Licht in einem sehr begrenztem Spektrum und diese Effekte kann man sehr wohl auch anders simulieren.
RTX heißt nicht automatisch Raytracing.

RTX arbeitet eben mit den derzeit zur Verfügung stehenden Mitteln. Jeden einzelnen Lichtstrahl aus Sicht eines bewegenden Beobachters in Echtzeit zu berechnen, kostet natürlich massiv Leistung. Dass das derzeit noch nicht vollumfänglich in ein Computerspiel integriert werden kann, sollte sich von selbst verstehen.
In der professionellen 3D-Grafik aber ist Raytracing schon lange Standard und nicht mehr wegzudenken Dass das ganze irgendwann auch seinen Weg in Spiele in Form von Echtzeit-Raytracing finden wird, war schon lange abzusehen, erste Experimente gab's damit schon im letzten Jahrzehnt.
 

onkel-foehn

Software-Overclocker(in)
RTX 3060TI in Full HD schneller als das AMD Top Modell mit RT ON
:lol:
Welche Karte meinst Du genau ?!? :lol:


MfG Föhn.
und ich kaufe mir eine High End GPU und dann muss ich mit Einschränkungen leben ?

Nö !

Deshalb RTX 3090 !
Auch wenn 42 der Sinn des Lebens ist, aber für diese Anzahl an FPS 2000 € + ausgeben ohne Einschränkungen ?!?
High End ist da lediglich der Preis (und der Stromverbrauch) ... :ugly:

MfG Föhn.
 

Anhänge

  • 42 FPS.jpg
    42 FPS.jpg
    375,8 KB · Aufrufe: 66
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
RT ist unnötig. alles Effekte die man auch ohne RT hinbekommt.
aber nvidia muss hier dank hype irgendwas teuer verkaufen. läuft.
Jo, bekommt man hin, ist dann aber unspielbar da die RT Berechnung über die Shader zu aufwändig ist. Sieht man ja an den RT Tests auf z.B. einer 1080ti mit emuliertem RT.

Die RT Cores sind ja nicht umsonst spezielle Einheiten auf den Chips. AMD hat die übrigens auch, heißen da nur Ray-Accelerators. Und teuer, ich weiss nicht, so viel Unterschied sehe ich nicht zwischen den UVP's der Nvidia und AMD Karten. Die Scalper-Preise sind ja bei beiden zurzeit exorbitant.

Was ist hier nur los, wenn Nvidia etwas "Neues" in den Consumer Bereich bringt (RT, DLSS, G-Sync) dann werden sie als Abzocker hingestellt, macht AMD dasselbe (SAM) dann sind sie der Heilsbringer. Diese Doppelmoral lässt sich doch nicht übersehen... Checkt doch mal dass keine der beiden Firmen der Good-Guy ist. Die wollen beide einfach nur Geld verdienen.

Innovationen fangen immer klein an. Deswegen ist die RT Leistung aktuell eben nur für ein paar Effekte zu gebrauchen. So fängt doch jeder Fortschritt an. Es gab noch nie eine Innovation die sofort perfekt war, nicht mal das Rad. Die Entwicklung benötigt immer Iterationen, absehbar ist trotzdem dass irgendwann die Spiele komplett per RT dargestellt werden. Dauert halt noch.
 

onkel-foehn

Software-Overclocker(in)
Falsch. NV verkauft z.B. die 3080 FE weiterhin für 719,-. Die Scalper Preise sollte man da nicht heranziehen, die macht der Markt und nicht Nvidia. Außerdem sind die aktuellen Scalper Preise bei AMD genauso hoch.
Also was interessiert mich eine UVP wenn ich zu diesem Preis KEINE bekomme ?!?
Und "Preise bei AMD genauso hoch" ist eine Exklusiv Meinung von Dir oder was ?!?
6800XT vs. 3080 bis zu 500 € unterschied und 6900XT vs. 3090 bis zu 1000 € (siehe Anhänge).

MfG Föhn.
 

Anhänge

  • a Preis 6800XT.jpg
    a Preis 6800XT.jpg
    558,6 KB · Aufrufe: 39
  • b Preis 3080.jpg
    b Preis 3080.jpg
    666,1 KB · Aufrufe: 16
  • c Preis 6900XT.jpg
    c Preis 6900XT.jpg
    584,3 KB · Aufrufe: 16
  • d Preis 3090.jpg
    d Preis 3090.jpg
    673,5 KB · Aufrufe: 27

raPid-81

Freizeitschrauber(in)
Also was interessiert mich eine UVP wenn ich zu diesem Preis KEINE bekomme ?!?
Und "Preise bei AMD genauso hoch" ist eine Exklusiv Meinung von Dir oder was ?!?
6800XT vs. 3080 bis zu 500 € unterschied und 6900XT vs. 3090 bis zu 1000 € (siehe Anhänge).

MfG Föhn.
Ich bezog mich EXPLIZIT auf die Aussage von mannefix dass Nvidia seine Karten für 2500€ verkauft, das ist nunmal schlichtweg falsch. Die Scalper Preise sind einfach nicht relevant für diesen Vergleich, die wechseln täglich.

RX6800XT - UVP 650,-
RTX3080 - UVP 719,-

RX6900 - UVP 999,-
RTX3090 - UVP 1500,-

Scalper Preise:
RX6800XT - 1500,- -> Preissteigerung 230%
RTX3080 - 1800,- -> Preissteigerung 250%

RX6900 - 1800,- -> Preissteigerung 180%
RTX3090 - 2200,- -> Preissteigerung 146%

Ok, in dem oberen Beispiel ist ein Unterschied von 20%, mea culpa. Und im zweiten Beispiel, naja, da siehts anders aus. Wenn ich 2700,- für die 3090 ansetze sind beide gleichauf in der prozentualen Preissteigerung. Ob das jetzt eine "Exklusiv Meinung" von mir ist kann jeder selbst entscheiden. In absoluten Zahlen sind die Nvidia Karten immer teurer (egal ob UVP oder Scalper), kein Wunder, AMD kommt meist über den Preis.
 

onkel-foehn

Software-Overclocker(in)
Ich bezog mich EXPLIZIT auf die Aussage von mannefix dass Nvidia seine Karten für 2500€ verkauft, das ist nunmal schlichtweg falsch.

RTX3090 - 2200,- -> Preissteigerung 146%
Na ja, ich weiß dass ein JEDER Vergleich hinkt, aber bei Deinem mit den 2200 € für die 3090 trifft AUSSCHIEßLICH
für das eine günstigste Modell zu und wäre nur relevant wenn ALLE genau dieses Modell kaufen würden !!
Ab 2650 - 3900 € kosten all die anderen Custom Modelle ...
Aber lassen wir es gut sein. Du brauchst mir gegenüber Deinen kauf NICHT zu rechtfertigen.
Die 3090 ist und bleibt eine leistungsfähige Karte (nur halt mit bekacktem PL Verhältnis) :-P

MfG Föhn.
 

Anhänge

  • GPU CP 2077.jpg
    GPU CP 2077.jpg
    376,4 KB · Aufrufe: 14
  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 25

4thVariety

Software-Overclocker(in)
Wir sollten davon ausgehen, dass Nvidia das Vorgehen der Händler weitestgehend toleriert. Die 720€ die Nvidia auf dem Papier für die 3080 verlangt sind nichts wert. Nvidia liefert für den Preis an Endkunden nichts und Nvidia verlinkt auf seiner eigenen Webseite weiterhin auf Angebote von NBB, Alternate und Caseking, die jenseits von gut und böse sind.

AMD kann man zu gute halten, dass manchmal ein paar Karten über die Seite direkt von AMD verkauft werden, was zumindest ihren Willen signalisiert. Für den Markt als ganzes aber ehr ein Muster ohne Wert, das ist eher vergleichbar mit Pontius Pilatus der sich die Hände waschen will.

Das ist ein Unterschied zu den Konsolen, bei denen sich der Hersteller sichtlich bemüht, dass der Erstverkauf an Kunden auch wirklich zum UVP geschieht.

War der Vorteil des PCs auch früher, das Spiele schneller im Preis gesunken sind, so ist dieser Vorteil inzwischen ebenfalls dahin. Einerseits dank Abodienste, andererseits weil Sony nun viel aggressiveres und dynamische Preisgestaltung erlaubt, weswegen ein Launchtitel wie WatchDogs Legion jetzt schon nur noch 30€ kostet.

Den traurigen Zustand des PCs sehen wir ja an solchen Artikeln. Früher haben die Leute auf dem Schulhof Autoquartett gespielt und sich dabei PS Zahlen und Höchstgeschwindigkeiten um den Kopf geworfen, jetzt macht man das mit Benchmarkbalken von 1000€ GPUs. Was ist die Message am Ende? Bezahlbar ist das alles nicht, zumindest nicht für eine breit genuge Masse, dass der PC gegen die neuen Konsolen seine Relevanz halten könnte.


Klar, PC Gaming als ganzes legt zu. Bei Home-Office PCs auf denen irgendwelche Pixel und Minimal-Grafik Spiele laufen. Bei bestehenden Spielern die in Spielen für die sie weniger Zeit hatten ihre Aktivität wieder hochfahren. Aber das nützt Nvidia oder Cyberpunk unter dem Strich nichts.

Bestenfalls ändert sich das im Juli mit den Änderungen an Ethereum. Bis dahin sind wohl auch genug Leute geimpft, dass das öffentliche Leben wieder hochfährt und die Leute ihr Geld nicht mehr in den Schreibtisch stecken. Dann könnte der GPU Markt ganz empfindlich zusammenbrechen.
 

czk666

Freizeitschrauber(in)
Mit meiner 6800/2600x habe ich die Auflösungsskalierung auf 80 Prozent gestellt. Dazu mittlere/Höhe Einsstellung, 1440p und Raytracing Schatten und Reflexionen an.

Ist gut spielbar und sieht tatsächlich gar nicht schlecht aus. Aber immer noch ein bugfest. Bin eh durch mit dem Spiel.
 

Gurdi

Kokü-Junkie (m/w)
Ich bezog mich EXPLIZIT auf die Aussage von mannefix dass Nvidia seine Karten für 2500€ verkauft, das ist nunmal schlichtweg falsch. Die Scalper Preise sind einfach nicht relevant für diesen Vergleich, die wechseln täglich.

RX6800XT - UVP 650,-
RTX3080 - UVP 719,-

RX6900 - UVP 999,-
RTX3090 - UVP 1500,-

Scalper Preise:
RX6800XT - 1500,- -> Preissteigerung 230%
RTX3080 - 1800,- -> Preissteigerung 250%

RX6900 - 1800,- -> Preissteigerung 180%
RTX3090 - 2200,- -> Preissteigerung 146%

Ok, in dem oberen Beispiel ist ein Unterschied von 20%, mea culpa. Und im zweiten Beispiel, naja, da siehts anders aus. Wenn ich 2700,- für die 3090 ansetze sind beide gleichauf in der prozentualen Preissteigerung. Ob das jetzt eine "Exklusiv Meinung" von mir ist kann jeder selbst entscheiden. In absoluten Zahlen sind die Nvidia Karten immer teurer (egal ob UVP oder Scalper), kein Wunder, AMD kommt meist über den Preis.
Wow das hast dir jetzt aber dezent schön gerechnet. Die NV Karten sind deutlich teurer als Ihre AMD Pendants die sich deutlich weniger eignen derzeit für Mining.
 

DragonX1979

PC-Selbstbauer(in)
Das RTX eine echte Simulation von Licht ist, mit all den physikalischen Effekten, würde ich klar verneinen. Es simuliert die Effekte von Licht in einem sehr begrenztem Spektrum und diese Effekte kann man sehr wohl auch anders simulieren.
Das sehe ich anders... Aber da kann ich nur die Videos von DF auf Youtube zum Raytracing von Cyberpunk empfehlen. Die geben einen guten Eindruck (mit Vergleichsbeispielen) wo altbekannte Techniken schlicht an ihre Grenzen kommen bzw. in Zukunft aufgrund des steigenden Detailgrades gar nicht mehr machbar sind... :daumen:

Zudem muss man ganz klar sagen, dass je realistischer die Grafiken in Zukunft seinen sollen, desto weniger wird es möglich sein an Techniken wie Raytracing und Physiksimulationen vorbei zu kommen... Und Raytracing steht erst am Anfang der Praxistauglichen Entwicklung.
 

raPid-81

Freizeitschrauber(in)
Wow das hast dir jetzt aber dezent schön gerechnet. Die NV Karten sind deutlich teurer als Ihre AMD Pendants die sich deutlich weniger eignen derzeit für Mining.
Wie "schön gerechnet"? Bitte erklären was du meinst. Absolute Zahlen bei den Scalper Preisen zu vergleichen ist halt Quatsch, da muss man schon die prozentuale Steigerung betrachten. Natürlich sieht 2700,- vs 1800,- krass aus, aber prozentual sind beide Karten GENAU GLEICH im Preis "gescalpt" worden.

aber bei Deinem mit den 2200 € für die 3090 trifft AUSSCHIEßLICH
für das eine günstigste Modell zu und wäre nur relevant wenn ALLE genau dieses Modell kaufen würden !!
Deswegen habe ich den Vergleich mit 2700,- als Preis AUCH dazu geschrieben, damit liegen BEIDE Topmodelle bei 180% Preissteigerung im Vergleich zu UVP. Ist ja nicht so als hätte ich das ignoriert...

Deine Screenshots sind schön, ich werde jetzt keine Benchmarks mit RT / DLSS auspacken, das wäre ja wieder "unfair" weil proprietär und so. Aber SAM sollte immer schön "an" sein in den Benchmarks als es noch AMD exklusiv war, gell? ;)
 

onkel-foehn

Software-Overclocker(in)
Deine Screenshots sind schön, ich werde jetzt keine Benchmarks mit RT / DLSS auspacken, das wäre ja wieder "unfair" weil proprietär und so. Aber SAM sollte immer schön "an" sein in den Benchmarks als es noch AMD exklusiv war, gell? ;)
Wollte mit den Benches lediglich aufzeigen, dass die grünen und roten Karten in etwa auf Augenhöhe liegen was die Leistung an geht. Wer auf RT steht und dies "zwingend" braucht sollte mMn zu nVidia greifen, da sie mittlerweile schon die 2. Generation am laufen haben und mit DLSS ein interessantes Feature bieten.
Auch wenn AMD mit SAM (durchschnittlich bis zu 12 % +) und nVidia/INTEL mit rBAR (durchschnittlich bis zu 7 % +) bieten, finde ich, dass die dazugehörigen Benches auf alle Fälle als solche auch gekennzeichnet werden.

MfG Föhn.
 

Gurdi

Kokü-Junkie (m/w)
Wie "schön gerechnet"? Bitte erklären was du meinst. Absolute Zahlen bei den Scalper Preisen zu vergleichen ist halt Quatsch, da muss man schon die prozentuale Steigerung betrachten. Natürlich sieht 2700,- vs 1800,- krass aus, aber prozentual sind beide Karten GENAU GLEICH im Preis "gescalpt" worden.
Deine Zahlen sind recht einseitg ausgelegt, wobei zugegebenermaßen derzeit eine taxierung schwierig ist.
Eine 3090 bewegt sich eher so um die 2500 Euro.
Eine 6900 ~1500 und eine 6800XT ~1300
 

raPid-81

Freizeitschrauber(in)
Deine Zahlen sind recht einseitg ausgelegt, wobei zugegebenermaßen derzeit eine taxierung schwierig ist.
Eine 3090 bewegt sich eher so um die 2500 Euro.
Eine 6900 ~1500 und eine 6800XT ~1300

Einseitig ausgelegt? Ich habe einfach nur die prozentuale Steigerung durch Scalping dargestellt, nicht mehr, nicht weniger. Mein Beitrag hat auch eine 3090 für 2700,- als Beispiel inkludiert. Da sind es 180% Steigerung durch Scalping, genauso viel wie bei der 6900 für 1800,-.

Die Preise habe ich aus dem PCGH Preisvergleich genommen den onkel-foehn gepostet hat. Du kannst gerne eigene Rechnungen aufzeigen mit Quellenangabe wo es diese Preise gibt. Meine Rechnungen stimmen aber mit der Quelle PCGH Preisvergleich überein.
 

Gurdi

Kokü-Junkie (m/w)
Einseitig ausgelegt? Ich habe einfach nur die prozentuale Steigerung durch Scalping dargestellt, nicht mehr, nicht weniger. Mein Beitrag hat auch eine 3090 für 2700,- als Beispiel inkludiert. Da sind es 180% Steigerung durch Scalping, genauso viel wie bei der 6900 für 1800,-.

Die Preise habe ich aus dem PCGH Preisvergleich genommen den onkel-foehn gepostet hat. Du kannst gerne eigene Rechnungen aufzeigen mit Quellenangabe wo es diese Preise gibt. Meine Rechnungen stimmen aber mit der Quelle PCGH Preisvergleich überein.
Ok, der PCGH Preisvergleich ist derzeit nicht wirklich zu gebrauchen, das erklärt es.
 

4thVariety

Software-Overclocker(in)
Es ist egal auf welche Preis/Leistung ich mich als Firma berufe, wenn die Preis/Leistung nicht bei meinen Kunden ankommt dann ist das ein Problem.

Schaut Euch den Nvidia Quartalsbericht an in den Zeiten da die Karten das doppelte kosten. Macht Nvidia etwa den doppelten Umsatz? Doppelten Gewinn? Nein.

Gleichzeitig ist es jedoch so, dass die Schuld an der Situation sehr wohl auf Nvidia zurückfällt. Mangel an Plattform-Loyalität, Mangel an Markenloyalität, eine zu 100% zerstörte Glaubwürdigkeit bei zukünftigen Preisankündigungen. Gibt es auch nur einen User hier um Forum der beim angeblich Preis der 3080Ti nächste Woche nicht laut lachen wird? Dazu hat Nvidia sogenannte Partner die für sich mehr Gewinn pro Karte machen und die negativen Folgen auf Nvidia zurückfallen lassen, sei es nun die Hersteller der Karten oder die Partner-Händler auf der eigenen Homepage.

Nvidia wäre gerne Apple und hätte gerne Kunden die einen Aufpreis zahlen. Aber wisst ihr worauf man sich bei Apple auch verlassen kann? Den Preis und die Lieferbarkeit und eine loyale Kundenschicht. Wer das nicht hat, hat nichts. Nvidia hat sich den Preis zerstören lassen, sie können nicht liefern und sie haben ihren Kunden den Eindruck gegeben, dass diese im Vergleich zu Cryptominern keinen Wert haben.

Bei AMD weitestgehend selbes Spiel. Da frage ich Euch. Wenn in der Situation eine der beiden Marken zufällig bessere Preis/Leistung fern ab vom UVP hat, welche Rolle spielt das?

Nichts zerstört eine Elektronikmarke schneller als fehlende Seriösität. Fragt Atari, fragt Sega, fragt Commodore, fragt 3dfx. Fragt LG und Sony nach ihrem Handysegment, fragt Onkyo nach ihren Verstärkern, fragt Grundig oder Löwe. Wenn du erlaubst dass der Markt mit dir macht was er will, oder du denkst du kannst mit dem Markt machen was du willst, dann geht es oft sehr schnell.

So wie ich die Sache sehe wird Nvidia für RTX 4000 seine Marke komplett neu aufstellen müssen. Zumindest wird das der Druck der Investoren sein. Zwischenhändler alle raus, eigene Auftragsfertigung, direktes Marketing an Endkunden. Wer mit Nvidia kooperiert macht das nicht mehr mit seiner Marke wie Asus oder GiBy jetzt, sondern macht das alles "whitelabel". AMD wird das 1:1 auch so machen. Die von den jetzigen Kartenherstellern betriebene ultra-segmentierung des Marktes ist für eine global agierende Marke nicht zeitgemäß. Das ist was für einen Mittelständler der auf der Messe hockt und nur so ein Produkt ins Ausland verkauft bekommt. Indem er auf die eigene Marke verzichtet und das den Vertriebspartner im Ausland erledigen lässt.
 

-Shorty-

Volt-Modder(in)
Nvidia wäre gerne Apple und hätte gerne Kunden die einen Aufpreis zahlen. Aber wisst ihr worauf man sich bei Apple auch verlassen kann? Den Preis und die Lieferbarkeit und eine loyale Kundenschicht. ...
Apples Preise sind komplett durch, das wissen sogar die bezahlten Fanboys, die Lieferbarkeit ist oftmals auch nicht gegeben, wird aber über Early-Adopter Aktionen und Preise aufgefangen. Apple hat seit mehreren Releases Probleme mit Lieferbarkeit.
Offenbar auch aktuell, die Meldung ist keine 24h alt.

Und nun zur loyalen Kundenschicht, die hat RTL auch, ist aber kein besonderes Merkmal, sondern zeigt eher einen Mangel an den eigenen Anspruch.

Apple ist wirklich ein ungünstiger Vergleich, aber man merkt schon ganz gut, dass die Hirnwäsche da Recht erfolgreich läuft, wenn in einem Raytracing Nvidia vs AMD Thread von Apple sprechen muss und diese als Positivbeispiel anführt.
 
Zuletzt bearbeitet:

Berserkervmax

Software-Overclocker(in)
Welche Karte meinst Du genau ?!? :lol:


MfG Föhn.

Auch wenn 42 der Sinn des Lebens ist, aber für diese Anzahl an FPS 2000 € + ausgeben ohne Einschränkungen ?!?
High End ist da lediglich der Preis (und der Stromverbrauch) ... :ugly:

MfG Föhn.
Und ich habe sogar ein Suprim X Bios drauf womit 450Watt möglich sind und dazu einen 9900K

Also ein Grünen Daumen bekommt mein PC sicher nicht....aber ein 300km/h Auto auch nicht.
Somit...Leistung kostet..wenn man sie abfordert.

Das tut ich zur Zeit nicht weil ich fast überall sehr gute FPS habe aber ich könnte wenn ich will

 

4thVariety

Software-Overclocker(in)
Apples Preise sind komplett durch, das wissen sogar die bezahlten Fanboys, die Lieferbarkeit ist oftmals auch nicht gegeben, wird aber über Early-Adopter Aktionen und Preise aufgefangen. Apple hat seit mehreren Releases Probleme mit Lieferbarkeit.
Offenbar auch aktuell, die Meldung ist keine 24h alt.

Und nun zur loyalen Kundenschicht, die hat RTL auch, ist aber kein besonderes Merkmal, sondern zeigt eher einen Mangel an den eigenen Anspruch.

Apple ist wirklich ein ungünstiger Vergleich, aber man merkt schon ganz gut, dass die Hirnwäsche da Recht erfolgreich läuft, wenn in einem Raytracing Nvidia vs AMD Thread von Apple sprechen muss und diese als Positivbeispiel anführt.

Aber man sieht auch sofort in der Meldung, dass die iPhones nicht davon betroffen ist. Es betrifft nur Tablets, die ein weitaus weniger wichtiges Segment sind und MacBooks, wo man im Vergleich mit Windows eher kleinere Marktanteile hat und Nischen besetzt. Der Moneymaker kann auch jetzt geliefert werden.

Apple ist sofern ein guter Vergleich, weil das die Firma ist, der alle nacheifern wollen, nachdem die einen raktenartigen Aufstieg vom Ladenhüter zum Megaseller hingelegt haben. Du wirst nicht die teuerste Firma der Welt, weil deine Geschäftspraktiken nicht funktionieren. Sie mögen an vielen Stellen unethisch sein, aber das steht auf einem anderen Blatt.

Als Nvidia den GPU Markt betreten hat gab es eine große Anzahl von 3D Chips. Nvidia hat sich durchgesetzt mit dem Konzept nur die Chips herzustellen und es den Boardpartnern zu überlassen die Kunden dafür zu finden und das Produkt in die Märkte zu bringen. So eine Art CocaCola Prinzip ist das. Für Nvidia war es ein Vorteil, wenn mehrere Firmen in einem Markt mit dem identischen Produkt konkurrieren, allein weil die gesammelten Marketingbudgets den Karten eine höhere Sichtbarkeit gegeben haben als PowerVR und oder ATI. Für jedes Radeon Review gab es schon früher gefühlt zehn GeForce Reviews und das setzt sich am Ende halt auch durch.

Aber gleichzeitig zeigt die jetzige Situation spektakulär wie dieses System GPUs herzustellen und zu verkaufen versagt hat. Als Investor würde ich das nicht tolerieren, zumal das ja schon in der GTX1000 Serie passiert ist und nicht zuletzt deswegen die RTX2000er Serie nur sehr langsam vom Markt angenommen wurde, nachdem der Überschussabverkauf der Miner die Preise entsprechend gesenkt hat. Soll das jetzt zyklisch zur Gewohnheit werden?

Vermutlich kommt Nvidia mit einem blauen Auge davon, aber nur weil AMD zu wenig bei TSMC vorbestellt hat und Intel noch mindestens 1-2 Jahre hinter ihren eigenen Plänen hängen. Denn könnte Intel jetzt eine 400€ GPU liefern, es würde sie jeder haben und die Nvidia Marktanteile wären von heute auf morgen futsch. Egal wie gut Jensen da gerade meinst zu sein, ist es katastrophal sich überhaupt in so eine Lage kommen zu lassen wo die Dominanz mehr von der Unfähigkeit der Konkurrenz abhängt als von etwas anderem.
 

DaHell63

Volt-Modder(in)
Welche Karte meinst Du genau ?!?
Hat er doch geschrieben.

Cyberpunk+.PNG


In diesem Fall hat er nun mal Recht.
Cyberpunk.PNG


Dann gibt es ja noch DLSS.
In der Szene komme ich mit einer RTX 3070 in 1440p auf 28 FPS...nogo.
1.JPG


Raytracing und Beleuchtung von psycho auf ultra zurückgestellt und DLSS/Qualität an. Schaut immer noch annehmbar aus und ich komme auf spielbare 55FPS.
Einstellung.PNG

2.JPG


Jetzt strahlt es zwar nicht mehr ganz so wie vorher, aber jetzt ist es spielbar und immer noch besser als ohne:D.
 
Zuletzt bearbeitet:

onkel-foehn

Software-Overclocker(in)
Hat er doch geschrieben.
Du hättest ja auch auf den von mir eingefügten Link klicken müssen/sollen und mir DIE Karte zeigen können/dürfen wo es jene welche zu kaufen gibt ...
Aber da war halt der Beißreflex wieder schneller, gelle :motz:
Einfach mal drauf klicken, lesen und zur Kenntnis nehmen.
Deshalb hab ich ja auch geschrieben, dass wer unbedingt RT braucht soll zu NV greifen,
wer drauf verzichten kann/will darf OHNE Bedenken zu den AMD Karten greifen.

MfG Föhn.
 

Anhänge

  • 4K RT.jpg
    4K RT.jpg
    336,2 KB · Aufrufe: 19
  • AMD RT.jpg
    AMD RT.jpg
    523 KB · Aufrufe: 22

DaHell63

Volt-Modder(in)
Aber da war halt der Beißreflex wieder schneller, gelle :motz:
Einfach mal drauf klicken, lesen und zur Kenntnis nehmen.
Ich muß auf gar keinen Link drücken. Besonders wenn er nur zur Ablenkung einer Aussage gebracht wird.
@Berserkervmax hat, dem PCGH Benchmark nach, eine völlig korrekte Aussage getroffen.
Was davon zu UVP, oder überhaupt zu kaufen gibt, ist völlig belanglos. Ansonsten könnten sich die ganzen Mags das testen sparen. Mir ist es völlig schnurz ob mal AMD oder mal Nvidia in einem Game schneller ist. Mit der anderen Karte ist es ja dewegen nicht unspielbar. Beißreflex brauch ich da keinen zu haben. Vielleicht heitert Dich das ja ein wenig auf.

Meine RTX 3070 chancenlos gegen meine RX 6800.
RTX 3070.JPG

RX 6800 OC.JPG


Besser?
Ich werde mich auch für niemanden verbiegen. Wenn ich AMD in einem Spiel besser finde sage ich es genauso wie wenn ich Nvidia mal vorne sehe.

Edit:
Es gibt ja auch das Gegenstück zu dem Cyberpunk Benchmark von PCGH...Valhalla. Da schlägt sogar eine RX 6700 XT das Flagschiff von Nvidia :D.
Valhalla.PNG
 
Zuletzt bearbeitet:

HyperBeast

Freizeitschrauber(in)
Interessant wirds doch erst wenn man in Cyberpunk mal nicht die aufpolierten Hautpmissionen abarbeitet sondern durch die Stadt fährt und merkt, dass das Spiel einfach mal 8 Jahre alt ist und nur durch Raytracing gut aussieht. Ohne Raytracing wirkt das Grundgerüst teilweise sehr hässlich.

Für die 3 Hauptmissionen mit Raytracing benötigt man dann aber eine 1.600€ Grafikkarte.... Hier läuft noch grundlegend was falsch.
 

Gerwald

Freizeitschrauber(in)
Wenn ich ganz ehrlich bin beeindruckt mich das wenig. Ich meine RT. Ok besser Schatten und Spiegelungen. Nur da gefällt mir die Grafik von HZD um einiges besser. Weil sie viel detailreicher wirkt als das Spiel hier.
Ich kann mir nicht helfen aber von der Grafik her sieht dieses Spiel aus wie einen modernen Version von der Grafik die wir zu Zeiten ONI schon hatten.
Nur besser Schatten und so ein Zeug ist mir da zuwenig das mich die Grafik eines Spieles vom Hocker reißt
 

Rollora

Kokü-Junkie (m/w)
Wie schon bei der RTX Präsentation 2018 angenommen: Raytracing wird noch ein paar Jahre dauern, bis es in Spielen sowie GPU Herstellern ordentlich implementiert wird. Und: AMD ist hier halt immer noch ein paar Jahre zurück, aber hoffen wir mal, das wird man nach RDNA3 (MIT RDNA3 glaube ich noch nicht, dass es behoben sein wird) klären.
 
Zuletzt bearbeitet:

Thunderburne

Komplett-PC-Käufer(in)
Ich hoffe das es nicht mehr lange dauert mit Super Resolution für die AMD Grafikkarten.
Cyberpunk war in 4K mit 60 FPS nur durch DLSS auf Qualität und ohne RT durchweg möglich mit meiner 3080FTW die ich im neuen Jahr eingetauscht habe gegen eine 6900XT Devil.
 
Oben Unten