Raytracing als Kaufargument: RTX-Marktanteil steigt, PCGH-Leser bleiben skeptisch

Immer wieder das Getrolle von Nvidias Implementierung ,die hier nicht die Bohne interessiert, checkt endlich mal das Microsoft hier federführend ist für den Standard u nicht NVIDIA

Ich weiß nicht, ob MS hier unbedingt sooo federführend war.

"In addition, while today marks the first public announcement of DirectX Raytracing, we have been working closely with hardware vendors and industry developers for nearly a year to design and tune the API. " Quelle

Das klingt zumindest nach Interpretationsfreiraum.

Seahawk hat aber genau das geschrieben. Und darauf die Diskussion erst gestartet.

Einige scheinen zu meinen, dass es eine deutlich bessere Art von RayTracing geben würde, und dass die AMD aus dem Hut zaubern wird. Mich fasziniert dieser unbedingte Glaube in die Genialität eines Hardwareherstellers durchaus, und ich wünsche mir auch absolut, dass AMD eine Implementierung von RT hinbekommt, die ein echter Gamechanger ist (denn das wäre für den gesamten Markt ein Gewinn), aber damit zu rechnen oder es gar als gegeben zu verkaufen, ist doch wirklich gewagt. Denn zaubern kann niemand - auch nicht AMD.

Achso, weil Seahawk ein wenig rumtrollt, ziehst du dir gleich eine ganze Gruppe von Leuten aus der Nase, die dann auch noch angeblich irgendwas frech Unterstelltes glauben soll. Man, man, man...

Auch bei Ryzen hat man AMD wer weiß was zugetraut, aber auch hier schließt man "nur" zu Intel auf (was eine ganz herausragende Leistung ist, angesichts der Markt- und Geldmacht von Intel). Ich freue mich ehrlich, dass AMD trotz der wirklich viel schlechteren Ausgangsposition den Markt tatsächlich derart aufrühren kann, aber diese religiöse Verehrung einiger Menschen ist schon ziemlich krass.

Was ist mit Performance/Watt im Serverbereich, Performance/Euro im Mainstream und HEDT Bereich? AMD hat hier nur aufgeholt... :ugly:
 
Zuletzt bearbeitet von einem Moderator:
Achso, weil Seahawk ein wenig rumtrollt, ziehst du dir gleich eine ganze Gruppe von Leuten aus der Nase, die dann auch noch angeblich irgendwas frech Unterstelltes glauben soll. Man, man, man...
Harte Worte von jemandem, dessen persönlicher Angriffe auf eine ganze Gruppe von Leuten gerade eben noch von der Moderation gelöscht wurde :daumen:

Typischer gaussmath.

Was ist mit Performance/Watt im Serverbereich, Performance/Euro im Mainstream und HEDT Bereich? AMD hat hier nur aufgeholt...
Freut dich ja richtig, mal endlich was positives über AMD sagen zu können :daumen:

Muss für dich echt hart sein im GPU-Forum, wo es da bei AMD nicht so rosig ausschaut.
 
Traurig das es direkt weiter geht.

Die Schnittstelle kommt halt von Microsoft und da wird AMD garantiert nicht ausgeschlossen worden sein. AMD entwickelt auch schon länger an RT, als das wir von Nvidia davon wissen.

Sprich Nvidia hat vielleicht früher angefangen zu entwickeln und dann AMD. Dann irgendwann hat Nvidia die RTX Karten gebracht. Das war aber schon nachdem Microsoft, Nvidia und AMD sich mit der Schnittstelle angefangen haben zu beschäftigen.

Alles andere ist meiner Meinung nach naiv.

QUOTE=KillerTime;10006455]Harte Worte von jemandem, dessen persönlicher Angriffe auf eine ganze Gruppe von Leuten gerade eben noch von der Moderation gelöscht wurde :daumen:

Typischer gaussmath.


Freut dich ja richtig, mal endlich was positives über AMD sagen zu können :daumen:

Muss für dich echt hart sein im GPU-Forum, wo es da bei AMD nicht so rosig ausschaut.[/QUOTE]

Könntest ja auch mal aufhören zu provuzieren, gilt allerdings für alle ;) Nur so eine Idee
 
Harte Worte von jemandem, dessen persönlicher Angriffe auf eine ganze Gruppe von Leuten gerade eben noch von der Moderation gelöscht wurde :daumen:

Na aber recht hat er, AMD kann hinter der Schnittstelle sei eigenes Süppchen kochen und abgesehen von seahawk der sich nur Scherze erlaubt, glaubt niemand an eine viel bessere Lösung durch AMD aus dem Stand.

#Strohmannagument;)
 
Na aber recht hat er, AMD kann hinter der Schnittstelle sei eigenes Süppchen kochen und abgesehen von seahawk der sich nur Scherze erlaubt, glaubt niemand an eine viel bessere Lösung durch AMD aus dem Stand.

#Strohmannagument;)

Wenn man so ließt kommt es einem schon oft so vor, das eben einige so etwas glauben. Nicht zuletzt eben solche Aussagen von Sea... usw.
 
Sprich Nvidia hat vielleicht früher angefangen zu entwickeln und dann AMD.
NVIDIA hat vor >10 Jahren angefangen sich mit Raytracing und dessen Nutzung zu beschäftigen.

Hier ein Beispielvideo aus 2009:
https://www.youtube.com/watch?v=vPeZf8WJDM4

Könntest ja auch mal aufhören zu provuzieren, gilt allerdings für alle ;) Nur so eine Idee
Werde ich, dennoch sehe ich es nicht ein, gaussmath, der ständig nur auf der persönlichen Schiene kommt und sogar Lügen über mich hier im Forum verbreitet, einfach so davon kommen zu lassen.

Na aber recht hat er, AMD kann hinter der Schnittstelle sei eigenes Süppchen kochen
Ein eigenes Süppchen kochen ist aber was Anderes, als das Thema. Nämlich ein inkompatibles Süppchen zu kochen, wie es seahawk sich erhofft.
 
Naja, bei seahawk muss man wohl davon ausgehen, dass er ganz gezielt und wider besseres Wissens Thesen raushaut, um das Feuer etwas anzufachen. Ich denke, das amüsiert ihn oder sie schlicht.
 
Zuletzt bearbeitet von einem Moderator:
Raytracing? Brauch ich noch nicht, gibt zu wenig Spiele, GPUs dafür sind überteuert, alles unter einer 2080Ti wäre sowieso nicht wirklich was.
Schauen wir mal was es nächstes Jahr so gibt, aber aktuell juckt es mich nicht in den Fingern.
Kaufargument? Nicht wirklich.
 
Raytracing? Brauch ich noch nicht, gibt zu wenig Spiele, GPUs dafür sind überteuert, alles unter einer 2080Ti wäre sowieso nicht wirklich was.
Schauen wir mal was es nächstes Jahr so gibt, aber aktuell juckt es mich nicht in den Fingern.
Kaufargument? Nicht wirklich.

Das ist eben der Punkt, es ist ein nettes Gimmick, aber kein wirkliches Verkaufsargument.
 
Raytracing? Brauch ich noch nicht, gibt zu wenig Spiele, GPUs dafür sind überteuert, alles unter einer 2080Ti wäre sowieso nicht wirklich was.
Schauen wir mal was es nächstes Jahr so gibt, aber aktuell juckt es mich nicht in den Fingern.
Kaufargument? Nicht wirklich.

Mein Countdown läuft. Sobald Cyberpunk 2077 erscheint und RT hoffentlich gut umgesetzt wurde, muss eine RT Karte her. Im gleichen Zug hole ich dann Metro und Control nach :)

Ich hoffe einfach nur das mit Turing Next bereits genügend Rohleistung vorhanden sein wird um die o.g. Spiele in 1440p-2160p mit ~60Fps darzustellen.
Sofern AMD mit RDNA 2.0 ebenfalls das schafft Wechsel ich auch gerne mal wieder zu den roten. Wäre nach meiner HD4870 1GB mal wieder an der Zeit ^^

P.S wurde für PUBG nicht ebenfalls RT bei der damaligen Turing Vorstellung angekündigt? Im link steht nur nur DLSS Support was mich überhaupt nicht interessiert...
 
Wenn die Kohle locker sitzt, kannst du das gerne machen, mir ist nicht nur der Preis zu hoch, sondern auch das Leistungsplus gegenüber einer 1080Ti.
Macht in meinen Augen keinen Sinn nur wegen in erster Linie CP2077 aufzurüsten, muss aber sagen, was ich da bis jetzt zu gesehen habe, sieht verdammt geil aus mit einer RTX.
Nichtsdestotrotz NOPE. Die Games kann man auch noch später zocken mit der nächsten Ti oder AMD RTX Pendant^^
 
Raytracing? Brauch ich noch nicht, gibt zu wenig Spiele, GPUs dafür sind überteuert, alles unter einer 2080Ti wäre sowieso nicht wirklich was.
Schauen wir mal was es nächstes Jahr so gibt, aber aktuell juckt es mich nicht in den Fingern.
Kaufargument? Nicht wirklich.

Da man auch bei Ray Tracing mehr Optionen hat als max, geht das schon ganz gut klar. Auch mit einer RTX2070 ist das durchaus genießbar... Dazu sind die Karten nichtmal überteuert, außer der 2080ti.
Eine RTX2070 Super liegt ca auf dem selben P/L Niveau wie eine 5700XT. Also Custom vs Custom.

Von daher verstehe ich dieses ganze überteuert Gerede nicht wirklich ;)
 
Mein Countdown läuft. Sobald Cyberpunk 2077 erscheint und RT hoffentlich gut umgesetzt wurde, muss eine RT Karte her. Im gleichen Zug hole ich dann Metro und Control nach :)

Ich hoffe einfach nur das mit Turing Next bereits genügend Rohleistung vorhanden sein wird um die o.g. Spiele in 1440p-2160p mit ~60Fps darzustellen.
Sofern AMD mit RDNA 2.0 ebenfalls das schafft Wechsel ich auch gerne mal wieder zu den roten. Wäre nach meiner HD4870 1GB mal wieder an der Zeit ^^

P.S wurde für PUBG nicht ebenfalls RT bei der damaligen Turing Vorstellung angekündigt? Im link steht nur nur DLSS Support was mich überhaupt nicht interessiert...

Könnte mir vorstellen das 2160p und 60fps sammt Ray Tracing alles @max zu hoch gegriffen sein wird, für die nächste Generation. Aber das ist auch wirklich viel verlangt. Da jedes neue Spiel auch immer höhere Anforderungen stellt.
Es ist ja nicht so, als würden Spiele heute in 1080p weniger Leistung brauchen, als vor ein paar Jahren. Natürlich brauchen die im Schnitt mehr Leistung auch schon 1080p, sehen dafür aber auch besser aus.

Demnach werden Spiele nächstes Jahr auch wieder mehr Leistung brauchen, auch in 1080p und co, dafür aber wieder besser aussehen.

4K ist heute genau so wenig standard wie in ein, zwei Jahren. Es wird noch deutlich länger das absolute Maximum an Hardware dafür nötig sein, um das maximale Erlebnis in 4k zu haben.

Wir können schon froh sein, das sich die Hardware etwas schneller entwickelt hat, als die Anforderungen gestiegen sind. So das man heute mit einer Mittelklasse Karte (2060Super, 5700(XT)) schon 1440p genießen kann, sofern man die Regler bedient.

Nochmal zu den Preisen.
Wenn man mal die Entwicklung des USD zu Euro Kurses anschaut, seit 2013 und noch die Inflation mit rein nimmt, dann ist die Welt nur noch halb so schwarz.

Dann darf jede Karte eh schon mal 26% teurer sein, als 2013 zum Beispiel.

https://www.pcgameshardware.de/Gefo...41/Tests/Geforce-GTX-780-Test-Review-1070700/

650 Euro für die GTX780 + 26% wären 820Euro. Ja die RTX2080 lag leicht da drüber, die RTX2080S dafür aber da drunter, mit den 739 Euro. Also die Hände zum Himmel (Scherz!). Nvidia hat die Preise gesenkt, abwohl keine nennenswerte Konkurrenz in dem Bereich besteht.

Wäre der Euro nich so schwach, läge eine RTX2080S nur bei 639 Euro und eine RTX2070S die schon alles aus dem Hause AMD schlägt bei "nur" 440Euro. Eine 5700XT Red Devil zum Beispiel nur bei 400 Euro.
Also der Hauptverantwortliche ist offenbar schnell gefunden. Der schwache Euro.
 
Zuletzt bearbeitet:
Natürlich nur die, die AMD hat, zumindest bei Gurdi, gaussmath & Co :stupid:

Ja klar, wenn die ruckelnden Frametimes und verwaschenen Bilder durch KI-Filter von AMD kämen, würde ich das natürlich abfeiern. Keine Ahnung, was hier abgeht, aber normal ist das nicht. Von dir und Konsorten kommt nichts Kritisches, wenn es um Nvidia geht, gar nichts, User werden stattdessen systematisch verleumdet. Das sind regelrechte Kampagnen. Sag nicht, ihr seid so beauftragte Social Media "Soldaten", dann kotz ich ab hier. :nene:

Und spart euch die erwartete Reaktion nach dem Motto: Ja, aber Gauss ist in Wirklichkeit der "Beauftragte", weil der nur basht... :ugly: Nein, ich bashe nicht nur, ich äußere auch Positives. Ich werde jetzt erstmal meine Ignore-Liste pflegen.
 
Wenn die Kohle locker sitzt, kannst du das gerne machen, mir ist nicht nur der Preis zu hoch, sondern auch das Leistungsplus gegenüber einer 1080Ti.
Macht in meinen Augen keinen Sinn nur wegen in erster Linie CP2077 aufzurüsten, muss aber sagen, was ich da bis jetzt zu gesehen habe, sieht verdammt geil aus mit einer RTX.
Nichtsdestotrotz NOPE. Die Games kann man auch noch später zocken mit der nächsten Ti oder AMD RTX Pendant^^

Ich habe damals für Crysis eine 8800 Ultra gekauft und darauf beim Release die GTX285 nur um das Game endlich in 1080p zu spielen :D Leider sind das die einzigen beiden Karten die verstorben sind (Ultra ist in der Vitrine) aber genau wegen solchen Games (wie Crysis, Battlefield 3 oder Cyberpunk 2077) spiele ich am PC und rüste gerne die Hardware auf.

Das schöne an Turing heute ist einfach, das man bereits heute schon etwas Next Gen erleben darf. Mit meiner 1080ti macht RT kein Spaß aber ich schau immer mal wieder gerne rein damit ^^

Aber wie gesagt ich verstehe jeden dem die Effekte noch zu teuer im Unterhalt sind und auch ich war in dieser Generation nicht bereit auf einer RTX2080ti zu wechseln weil sie mir ggü. der 1080ti zu wenig geboten hat.

LG :)
 
Von dir und Konsorten kommt nichts Kritisches, wenn es um Nvidia geht, gar nichts, User werden stattdessen systematisch verleumdet. Das sind regelrechte Kampagnen.
Zitat du, vorgestern:
KillerTime hat hingegen noch nie etwas Kritisches über Nvidia gesagt, noch nie! Oder was Positives über AMD? Fehlanzeige. Ich weiß ja nicht wie es euch geht, aber das macht mich persönlich ein wenig misstrauisch.
Abgesehen davon, dass du bis heute keinen Beleg für diese Verleumdung mir gegenüber vorgebracht hast, Herr Lügner, kommst du jetzt auch noch mit so einer Opfernummer um die Ecke. Wie unfassbar peinlich. Du bist echt auf dem Niveau der AfD angelangt inzwischen, die Teilen auch kräftig auf persönlicher Schiene aus und urplötzlich wollen Sie die Opfer sein. Nein, damit kommst du bei mir nicht durch.

Das schöne an Turing heute ist einfach, das man bereits heute schon etwas Next Gen erleben darf.
Eben :daumen:

Da können RX480, Gurdi, Duvar, seahawk, gaussmath und wer auch immer erzählen was Sie wollen. Im Grunde ist es doch nur Neid, weil ihr Lieblingshersteller das Feature eben nicht liefert und abgehängt ist. Da wird dann ein Schärfefilter bejubelt :ugly:
 
Zurück