Intel Xe: Hinweise auf Raytracing-Support

Achso, Spiele zählen also nur als halbe Spiele. Gut, gegen so eine gute Argumentation komme ich natürlich nicht an.

Ist halt Fakt. Wenn du jetzt schon mit einer Grafikdemo wie Quake 2 RTX kommen musst um Raytracing als sinnvoll darzustellen dann gute Nacht. Aber was bleibt dir auch anderes übrig wenn alle RT-Spiele und Patches jahrelang verschoben werden, nicht wahr? It just works*.

*in a few years
 
Ist halt Fakt. Wenn du jetzt schon mit einer Grafikdemo wie Quake 2 RTX kommen musst um Raytracing als sinnvoll darzustellen dann gute Nacht. Aber was bleibt dir auch anderes übrig wenn alle RT-Spiele und Patches jahrelang verschoben werden, nicht wahr? It just works*.

*in a few years
Q2 ist ein vollständiges Spiel, das durch simples Anwenden von RT und ein bisschen Polishing durchaus wieder gut aussieht.
Es ist natürlich eine Designstudie, aber zeigt die riesigen Vorteile von RT durchaus auf.

Es zeigt es auf jeden Fall besser, als die anderen Spiele die RT einfach nur drangepappt bekommen.

Natürlich wird RT erst sinnvoll genutzt, wenn die GPUs es für mehr als hochskalierte Spiegelungen verwendet.
Vermutlich also mit der PS6 (nicht 5), weil die 5er dafür zu wenig Leistung hat. Und dann auch erst nach ein paar Jahren, wenn die ersten Spiele erscheinen, die RT von GRUND AUF in den Designprozess einbauen. Also kurzum: RT ist derzeit - wie jedes neu eingeführte Feature - ein Optisches Plus auf Kosten von Leistung und wird wohl erst in einigen Jahren wirklich gut eingesetzt werden. Aber das sag ich eh schon seit die RTX Serie released wurde.

Es ist dennoch DAS Feature, das in Zukunft den Unterschied machen wird, ob etwas fotorealistisch wahrgenommen wird oder nicht.
 
Zuletzt bearbeitet:
Q2 ist ein vollständiges Spiel, das durch simples Anwenden von RT und ein bisschen Polishment durchaus wieder gut aussieht.
Es ist natürlich eine Designstudie, aber zeigt die riesigen Vorteile von RT durchaus auf.

Es zeigt es auf jeden Fall besser, als die anderen Spiele die RT einfach nur drangepappt bekommen.

Natürlich wird RT erst sinnvoll genutzt, wenn die GPUs es für mehr als hochskalierte Spiegelungen verwendet.
Vermutlich also mit der PS6 (nicht 5), weil die 5er dafür zu wenig Leistung hat. Und dann auch erst nach ein paar Jahren, wenn die ersten Spiele erscheinen, die RT von GRUND AUF in den Designprozess einbauen. Also kurzum: RT ist derzeit - wie jedes neu eingeführte Feature - ein Optisches Plus auf Kosten von Leistung und wird wohl erst in einigen Jahren wirklich gut eingesetzt werden. Aber das sag ich eh schon seit die RTX Serie released wurde.

Es ist dennoch DAS Feature, das in Zukunft den Unterschied machen wird, ob etwas fotorealistisch wahrgenommen wird oder nicht.

Fast 100% Zustimmung, zur Zeit Spielerei für Early Adobters, ob es zur Zeit den Aufpreis wert ist:
Für mich kann ich es beantworten: Nein...
In Zukunft: Wahrscheinlich schon
 
Nebenbei alle Spiele die ich grad zock u die mich interessieren haben eh kein RT

Absolute Meisterwerke, wie ein RDR2, bekommen auch so sehr gute Lichteffekte(natürlich kein RT) hin.
Das zock' ich gerade von vorn bis hinten von links nach schräg durch, bis es nicht mehr geht.
Funzt auch mit ner 1080Ti ganz gut.

Zukünftig bin ich dann schon neugieriger, was da so kommt, an RT Spielen, ab 2021.
Das bisherige waren für mich eher so ne Art Demos, mit mehr, oder weniger Unterstützung von Nvidia gemacht.
Die ersten Spiele, die wirklich mitten in der Entwicklung schon RT spendiert bekommen haben und nicht erst nachträglich per patch, oder gegen Ende der Entwicklung, da wird das mal spannender werden, mit RT.
Auch jetzt wo die Entwickler sich schon mal drauf einstellen können, dass AMD und die Konsolen wohl auch bald mitziehen, werden die sich wohl ernsthafter damit beschäftigen.

Und ob da jetzt 3, oder 7 Titel irgendwann kamen ist glaub ich für die Zukunft des RT in Spielen unerheblich und auch nicht gerade wichtig, für eine Diskussion.
Klar waren das Leuchtturmprojekte, bzw. Demos. Aber irgendwann muss man ja mal damit anfangen.
Genauso, wie die early adopter irgendwann einsteigen müssen, bevor es mainstream wird.

Im Gegensatz zu DLSS glaub ich schon, dass RT bleiben wird. Das sind halt länger dauernde, jahrelange Entwicklungen, wo man irgendwann aufspringen kann, oder eben noch nicht. Als mainstreamzocker braucht man es wohl definitiv noch nicht.

Auch was Intel betrifft, wird das ja noch Jahre dauern.
wenn Intel mehr Details zu Xe bekanntgeben will und explizit Entwickler adressieren wird. Die müssen bis zum geplanten Start der Xe-Grafikkarten - die High-Performance-Version soll wohl 2022 kommen - an Bord geholt werden.

Ab 2022 wird's wohl erst richtig spannend, was das angeht.

AMD und Nvidia geben sicherlich schon vorher Gas, was RT angeht. Also 2021 könnte das erste Jahr werden, wo man richtig was merkt. Oder frühestens Ende 20.
Im Moment sind es eher noch so einzelne Demos, wie ich das sehe.

Ich freue mich aber auf RT in Spielen, da ich die Idee von der Umsetzung ganz gut finde, auch wenn es anfänglich sicher noch "so naja" sein wird, da man parallel eben auch den anderen Kram noch braucht, so lange der Mainstream noch nicht im Boot sitzt.
RT only wird's bestimmt noch jahrelang nicht geben.

Und die Käufer einer RTX Karte, oder überhaupt der ersten RT Karten(bald auch von AMD ?), wissen wohl, dass sie alle Teil der "RT-Beta" sein werden.
Ich käm' damit klar und würd's als zusätzliches Gimmick auf einer z.B. 3080 mitnehmen.

Im Mainstream wird's aber sicherlich noch einige Zeit(Jahre) Karten ohne RT support brauchen, abgespeckt auf das Nötigste.
(Da fehlt auch einfach noch die Grundleistung)


edit:

Es ist natürlich eine Designstudie, aber zeigt die riesigen Vorteile von RT durchaus auf.

Genau dafür seh' ich die ersten RT Spiele, die raus kamen.
Is aber doch auch normal, denn irgendwo muss man ja mal anfangen, auch den Entwicklern Möglichkeiten zu geben und zu zeigen, ja, jetzt geht's bald wirklich los, Leute.
Ich wiederhole mich: gerade zusätzlich mit den Signalen zu den nächsten Konsolen und Highend AMD Karten.

Das wird natürlich alles noch ne Weile im beta Status bleiben.
Aber vielleicht gibt's ja auch Entwicklerstudios, die während der Entwicklung ihres Spiels(edit: Cyberpunk z.B. ? ) da dann doch etwas mehr Zeit reinlegen, wobei das natürlich heut zu Tage Mangelware ist. ;)
 
Zuletzt bearbeitet:
Es ist dennoch DAS Feature, das in Zukunft den Unterschied machen wird, ob etwas fotorealistisch wahrgenommen wird oder nicht.

Ich glaube es gibt nicht einen Menschen auf der Welt der das Gegenteil behauptet..

Es geht darum das ich dieses Zukunfts-Feature aber jetzt schon kaufen MUSS wenn ich Leistung oberhalb einer 1660 Ti haben will. Und das hätte man anders lösen können. Es wurde damals z.B. bei den ersten 3D-Beschleunigern wie der Voodoo auch anders gelöst, und da war der Markt noch viel, viel kleiner als heute. Wer wollte konnte sich so ein Ding für viel Geld extra reinstecken, und wer nicht wollte wollte halt nicht. Und man mag es kaum glauben.. es hat sich durchgesetzt.

Ob ein Feature sich durchsetzt oder nicht entscheidet immer noch der Kunde, und nicht der Hersteller, der es dem Kunden einfach mal so aufzwingt, auch wenn es quasi noch lange nicht nutzbar ist. Ich liebe Technik und jeden Fortschritt, aber nicht als Zwangs-Balast. Selbst wenn es nur 10% vom Die sind, kaum ein Kunde nutzt diese 10%. Wie gesagt, schlecht für den Geldbeutel des Kunden, schlecht für die Umwelt, gut für Nvidias Aktienkurs. Wie man sowas schönreden kann werde ich nie nachvollziehen können, sorry.
 
Es geht darum das ich dieses Zukunfts-Feature aber jetzt schon kaufen MUSS wenn ich Leistung oberhalb einer 1660 Ti haben will.

Darum geht's dir.

Auf was für Hardware bist du denn aktuell unterwegs ?
Da wäre es mal wieder nützlich gewesen, dass direkt in der Sig zu sehen, oder zumindest im Profil.

Falls du noch einigermaßen starke hardware hast, brauchst du ja nicht wechseln, wenn du noch nicht auf RT gehen willst.
Eine 1080Ti hat auch heute noch ausreichend Leistung für RDR2.

Ich müsste also eigentlich auch mit der 3000er Gen noch gar nicht auf den RT Zug aufspringen, wenn ich unbedingt nicht wollte.

edit: Ich denke 1070Ti/1080/1080Ti Nutzer müssten noch 1-2 Jahre nix Neues holen, nur wegen der Leistung.

edit2: Hab gerade mal geguckt ... gebrauchte(funktionierende) GTX 1080 8GB kriegt man für 230-280€.
(Immer noch eine sehr gute GPU mit ausreichend Speicher)
RTX 2070 neu kosten leider immer noch um die 400€ Minimum.

edit3:

Bei der Performance liegt die RTX 2070 im Großen und Ganzen knapp über dem Level der im Verhältnis mit leicht höherer Übertaktung laufenden GTX 1080 (rund +6 respektive +8 Prozent gegenüber mittlerer Boost-Angabe). In einigen Titeln ist die RTX 2070 auch etwas langsamer als die Pascal-GPU,

1.jpg

edit4: Ups ... gerade erst auf die Karte darüber geschaut. Da wurde genau mein Custom Modell der Ti mitgetestet. :daumen:
Geiles Teil, die Strix OC Ti. :D
 
Zuletzt bearbeitet:
Mal ganz unvoreingenommen (darf jeder gerne mitmachen):

Wenn man einen Screenshot wähltz in dem keine Wasserpfützen oder sowas vorkommen wo man natürlich sofort an Reflexionen RT erkennt - kann man wirklich anhand dieses Beispiels unten erkennen, ob RT an oder aus ist? Ich habe einen beliebigen Reviewscreenshot genommen und das "RTX on/off"-Logo von Nvidia darin schwarz gemacht. Seid ehrlich, ohne nachzusehen bzw. den Screenshot zu googlen: Ist Raytracing hier an oder aus?
Anhang anzeigen 1078141


Ich will damit nicht sagen dass RT keinen Mehrwert bringt (bevor mir das wieder angedichtet wird), nur mein Eindruck ist, dass man RT eben an den charakteristischen Stellen eines Spiels wie Wasserpfützen gut erkennt und da siehts auch toll aus aber in den restlichen 95+% des Spiels keinen erkennbaren Unterschied im Spielgeschehen macht. Deswegen sehe ich persönlich (noch) den Nutzen als sehr sehr begrenzt. Das wird sich sicherlich ändern mit schnellerer HW und entsprechend mehr Nutzung von RT aber aktuell? Naja.

Auflösung
RTX ist aus. Das RTXon-Bild sowie die Quelle ist hier:
http://game2gether.de/wp-content/uploads/2019/02/Metro-Exodus-Screenshot-8.png

Habe es genau richtig eingeschätzt. Aber es gibt auch schwierige Bilder! Es geht doch gar nicht um einen Unterschied von Tag zu Nacht. Es geht um einen Mehrwert und wie immer fängt es halt kleiner an... ;)
Für mich ist und bleibt RT auch jetzt schon ein Mehrwert, den ich mir nicht mehr wirklich endgehen lassen will.

Woher nimmst du 22%? Sind in etwa 10%.

Kann einer von euch die 22, oder 10% mit irgendeinem Artikel bestärken?

Die Nvidia-Aktie ist Ende 2018 nach unten gerauscht, unter anderem auch weil die Anleger nicht geglaubt haben das irgendeine Sau den überteuerten RTX-Dreck kaufen wird. Das ist die harte Wahrheit, die du wie so vieles andere schon wieder verdrängt hast. Offizielle Begründung von Nvidia war das der Mining-Boom zu Ende ist (genauso wie das Mining vorher die Ausrede war die Preise extrem zu erhöhen), aber das hat nur ein Mensch auf dieser Welt geglaubt, und der fängt mit "Sch" an und hört mit "affe" auf.

Und dann, ein paar Monate später kommt aus heiterem Himmel die 1660 angerauscht. Warum? Und warum nur in dieser Leistungsklasse? Warum keine 1680? Ganz einfach: Wer richtig Leistung haben wollte die es bei der Konkurrenz nicht gab, wurde weiterhin gezwungen tief in die Tasche zu greifen und sinnloses RTX kaufen.

Endschuldige bitte, aber das ist sehr bestreitbar.

Kannst du das fundiert belegen?

Ach schaffes Zahlen darfst nicht ernst nehmen, die dreht er sich immer so hin wie es Ihm passt...

Reicht es nicht ihn dann zu überführen, muss man immer wieder persönlich werden?

Ich möchte auch einfach gerne eine Quelle zu den 10% sehen.

Die Aktie ist nach unten gerauscht, weil die Mining-Blase vorbei war. Mit RTX hatte das überhaupt nichts zu tun, was auch die Verkaufserlöse belegen, die waren auf dem Niveau von Pascal.
Und nun haben sich die Erlöse nochmals mit RTX gesteigert und liegen oberhalb dem Pascal Niveau.



Ne, das wurde schon x mal ausdiskutiert und widerlegt.





Aus deiner Quelle.



Ist mir mittlerweile zu dumm geworden.
Laut dir sind es ja nur zwei Spiele, in Wirklichkeit sind es 6.

Alles richtig, aber 6 Spiele kann ich auch nicht finden und würde auch nochmal darum bitten, die 6 Spiele zu nennen.

1. Hab mich auf 3 verbessert..
2. Ja dann zähl die soch auf... Ich weiss es wirklich nicht... lass mich ned dumm sterben
3. Aus der Quelle geht ein Mehrbedarf bei den Shadern von 22% hervor. Ergo ohne Rt könnte man 22% mehr shader verbauen können

Ok, aber die Rede war doch von Fläche und das sind laut Artikel doch nur knapp 10%.

Die 10% die du annimst sind auf den gesamten Chip bezogen und nicht auf ein Cluster. Ein Cluster könnte trotzdem 22% mehr Cuda Kerne entahlten.

Welche 6 Spiele kamen denn 2019 mit RTX? Ich würde mir gerne noch eines kaufen von dem ich noch nicht weiss.... Leider hat mich, bis auf SoTR, keines interessiert. Eventuell ist ja eine Überraschung dabei.

EDIT:

Nehmen wir an die 22% mehr Cuda Kerne skalieren linear und werden ausgelastet, dann kämen im Falle von RDR2 auf UHD mit einer 2080ti 52,46FPS anstatt 43FPS heraus. Laut PCGH Benchmarkstelle.
Das wäre schon schön nahe an dem was ich bevorzuge. :)

Skalieren ab nie linear. Dürften wohl eher maximal 16,5% mehr sein. Hängt aber dann auch vom Verbrauch ab, ob der höher ist, als der der RT Einheiten. Dann würde der Takt ja noch minimal runter gehen. DAnn wären es 50 statt 43 im Idealfall.

Vielleicht hilft dir eine Wasserkühlung mehr ;)

Der Beitrag ist die Quelle des von mir verlinkten PCGH-Artikels. :D

Wie schon gesagt es kommt drauf an wie man die Zahlen interpretiert. Wenns nur um reine RT Einheiten geht sinds anscheinend diese 10,2% (zumindest nach dieser Quelle), wenn man alle drumrum mitrechnet dass der Chip bzw. die RTs auch funktionieren ists deutlich mehr. Darüber kann man sich jetzt totstreiten da niemand genaue Zahlen hat - Fakt ist aber, dass ohne RT [bei gleicher Chipfläche] die Spieleleistung höher gewesen wäre, ob nun 10 oder 15 oder 20%.

Es ist halt die Frage wie viel Leistung ein Chiphersteller (also jetzt auch AMD/Intel) für sowas opfert was zumindest in der ersten Iteration den allerallermeisten Leuten wenig bis nichts bringt. Das kannste nur dann machen wenn du einen großen Vorsprung hast und die Macht, Leute zum Kauf zu zwingen da selbst deine durch RT-Fläche geschwächte klassische Renderleistung der Konkurrenz weit voraus ist. Deswegen gibts die RTX-lose GTX1660(Ti) im Bereich wo AMD mithalten konnte, darüber aber nur RTX-Karten wo AMD (damals) nichts hatte. Wenn der Markt die Wahl gehabt hätte zwischen RTX2080Ti und GTX1880Ti ohne RTX aber 10% schneller wären die Verkäufe von RTX gefühlt gegen Null tendiert. Kaum jemand opfert freiwillig Leistung bei gleichem Preis/Chipgröße um ein Feature zu kaufen das so gut wie nirgends unterstützt wird. Zu sowas musste die Leute zwingen - was bisher ganz gut funktioniert hat (hab ja selbst eine^^).

Und genau diesen Spagat hat Nvidia doch super gelöst! Auch bringt es mir schon eine ganze Menge und ich opfere lieber die letzten 10% mehr Leistung, als auf RT zu verzichten. Ist nur meine Meinung dazu. Aber ich werde auch nicht der einzige sein.

Nvidia hat extra ein Zusatzfeature entwickelt, bei dem sie sich offenbar gezwungen sahen es genau gegenteilig benennen zu müssen als das, was es eigentlich macht, damit sie überhaupt halbwegs vorzeigbare Leistung zeigen konnten/ können.
3Dfx mit bilinear Texturfilterung, Creative mit EAX, ATi mit Truform.

Zum Thema Grafikqualität allgemein: Der Mix aus verschiedenen Techniken macht es nunmal aus, gute Texturen und Beleuchtung sind gleichermaßen wichtig. Für gute, aber "gefakte" Beleuchtung gibt es genug überzeugende Beispiele, aber hohe (Textur-)Auflösung kann man sich nicht erschummeln, feine Details gehen einfach verloren oder flimmern (stärker).

Das ist auch ohne Frage grundsätzlich cool. Aber erstens, ist DXR bislang qualitativ eben nicht ohne jeden Zweifel erhaben, sondern hat Qualitativ andere Einschränkungen. Zweitens ist die Rasterleistung eben nicht so hoch, dass jeder mal eben 50% an RT Effekte abgeben kann. Ganz besonders, weil Turing nur so einen mickrigen Leistungsvorsprung mitbrachte.

Ja, ich hätte auch gerne eine Karte mit 24GB Speicher und 50% mehr Leistung bei allem, auch RT. Aber alles auf einmal geht nicht. Sonst hätte AMD das auch schon. Das die Konsolen RT bringen, zeigt auch schon deutlich das AMD nicht wegen Nvidia RT bringt. Und selbts wenn es so wäre, wäre das nicht schlecht, da es einfach schon jetzt besser aussieht, oder zumindest in eine realistischere Richtung geht.

DLSS sieht in Wolfenstein echt gar nicht schlecht aus, da muss ich Schaffe recht geben. Ist digital Foundry pro Nvidia, weiß das jemand? Oder ist das verlinkte Video fehlerhaft?

Noch immer eine glatte Lüge

Muss interessant sein mit einer selektiven Leseschwäche wie du sie hast.


Es wären aber keine 22% mehr Kerne. Die Shader benötigen genauso das ganze drumherum - mehr shader ohne mehr Sheduler, Cache, BUS? Ok - ist genauso sinnvoll wie deine Kommentare.

Warum persönlich werden?

Die 3 Spiele sind doch richtig, oder? Bitte mit Aufzählung...

Bei den 22% hast du meiner Meinung nach Recht.

Heilige Maria.... wenn du etwas allgemein hälst, dann windest du dich auch immer raus weil du es angeblich anders gemeint hast. Alk ging es aber um die Cuda-Kerne! Und im Bezug auf das Cluster sind es nunmal 22% mehr Einheiten.



Und das ganze "Drumherum", wie du es bezeichnest ist FEST! L1,L2L3Cache und Sondereinheiten sind nicht liniear pro Shader. Sie funktionieren und wurden per Cluster implementiert.
Und vorallem mehr "BUS" :D???? Ich hätte nicht gedacht, dass der "BUS" von der exakten Anzahl der Shader abhängt :ugly:
Displayinterface, VPU, PMU, BIF ( Dein "BUS" :ugly: )und Display-Controller sind zB fest. Caches hängen von der Menge der Cluster ab, genauso wie feste Einheiten. Damit bleibt pro Cluster einfach nur die Menge der Cuda-Kerne. Und damit 22% mehr Fläche an Cuda-Kernen pro Cluster. Uuuuuund auch ( Trommelwirbel ) pro Cluster der Sheduler.....


Herr Gott, liest denn keiner mehr ein White-Paper bevor er hier groß tönt?????

@Casurin... akademisches Arbeiten ist Dir nicht bekannt oder? Wer so diffamierend nach aussen wirkt ohne augenscheinlich ein White-Paper zur Architektur gelesen zu haben..... :ugly:


Sind drei Spiele alleine nicht aus 2018???

Der Inhalt gefällt mir, aber der Umgangston nicht, gibt es dafür einen differenzierten Button ;)

Ich glaube es gibt nicht einen Menschen auf der Welt der das Gegenteil behauptet..

Es geht darum das ich dieses Zukunfts-Feature aber jetzt schon kaufen MUSS wenn ich Leistung oberhalb einer 1660 Ti haben will. Und das hätte man anders lösen können. Es wurde damals z.B. bei den ersten 3D-Beschleunigern wie der Voodoo auch anders gelöst, und da war der Markt noch viel, viel kleiner als heute. Wer wollte konnte sich so ein Ding für viel Geld extra reinstecken, und wer nicht wollte wollte halt nicht. Und man mag es kaum glauben.. es hat sich durchgesetzt.

Ob ein Feature sich durchsetzt oder nicht entscheidet immer noch der Kunde, und nicht der Hersteller, der es dem Kunden einfach mal so aufzwingt, auch wenn es quasi noch lange nicht nutzbar ist. Ich liebe Technik und jeden Fortschritt, aber nicht als Zwangs-Balast. Selbst wenn es nur 10% vom Die sind, kaum ein Kunde nutzt diese 10%. Wie gesagt, schlecht für den Geldbeutel des Kunden, schlecht für die Umwelt, gut für Nvidias Aktienkurs. Wie man sowas schönreden kann werde ich nie nachvollziehen können, sorry.

Aber es ist ja nutzbar. Dir zu wenig, mitr genug.
Man muss halt mal mit was neuem anfangen. Wieso schlecht für den Kunden? Ganz ehrlich, die Nvidia Karten wären eh teurer gewesen, auch ohne RT. Und ob es am Ende dann 10% mehr Fps sind, oder 20% macht den Kohl auch nicht fett. Dafür ist es eben eine Option die du sonst nicht hast. Wo ist das Problem. Warum schlecht für die Umwelt? Dann lass den Computer doch gleich am besten ganz aus ;)

Ich weiß nicht warum man so etwas so verkrampft schlecht reden muss. Nur mal so plakativ gesagt.

Also eine RT Beschleuniger KArte ala Vodoo wäre mal cool gewesen ;)

Darum geht's dir.

Auf was für Hardware bist du denn aktuell unterwegs ?
Da wäre es mal wieder nützlich gewesen, dass direkt in der Sig zu sehen, oder zumindest im Profil.

Falls du noch einigermaßen starke hardware hast, brauchst du ja nicht wechseln, wenn du noch nicht auf RT gehen willst.
Eine 1080Ti hat auch heute noch ausreichend Leistung für RDR2.

Ich müsste also eigentlich auch mit der 3000er Gen noch gar nicht auf den RT Zug aufspringen, wenn ich unbedingt nicht wollte.

edit: Ich denke 1070Ti/1080/1080Ti Nutzer müssten noch 1-2 Jahre nix Neues holen, nur wegen der Leistung.

edit2: Hab gerade mal geguckt ... gebrauchte(funktionierende) GTX 1080 8GB kriegt man für 230-280€.
(Immer noch eine sehr gute GPU mit ausreichend Speicher)

edit3:



Anhang anzeigen 1078218

edit4: Ups ... gerade erst auf die Karte darüber geschaut. Da wurde genau mein Custom Modell der Ti mitgetestet. :daumen:
Geiles Teil, die Strix OC Ti. :D

Da ist es wieder, das Müssen und das Wollen ;)
 
Zuletzt bearbeitet:
Habe es genau richtig eingeschätzt. Aber es gibt auch schwierige Bilder! Es geht doch gar nicht um einen Unterschied von Tag zu Nacht. Es geht um einen Mehrwert und wie immer fängt es halt kleiner an... ;)
Für mich ist und bleibt RT auch jetzt schon ein Mehrwert, den ich mir nicht mehr wirklich endgehen lassen will.



Kann einer von euch die 22, oder 10% mit irgendeinem Artikel bestärken?



Endschuldige bitte, aber das ist sehr bestreitbar.

Kannst du das fundiert belegen?



Reicht es nicht ihn dann zu überführen, muss man immer wieder persönlich werden?

Ich möchte auch einfach gerne eine Quelle zu den 10% sehen.



Alles richtig, aber 6 Spiele kann ich auch nicht finden und würde auch nochmal darum bitten, die 6 Spiele zu nennen.



Ok, aber die Rede war doch von Fläche und das sind laut Artikel doch nur knapp 10%.



Skalieren ab nie linear. Dürften wohl eher maximal 16,5% mehr sein. Hängt aber dann auch vom Verbrauch ab, ob der höher ist, als der der RT Einheiten. Dann würde der Takt ja noch minimal runter gehen. DAnn wären es 50 statt 43 im Idealfall.

Vielleicht hilft dir eine Wasserkühlung mehr ;)



Und genau diesen Spagat hat Nvidia doch super gelöst! Auch bringt es mir schon eine ganze Menge und ich opfere lieber die letzten 10% mehr Leistung, als auf RT zu verzichten. Ist nur meine Meinung dazu. Aber ich werde auch nicht der einzige sein.



Ja, ich hätte auch gerne eine Karte mit 24GB Speicher und 50% mehr Leistung bei allem, auch RT. Aber alles auf einmal geht nicht. Sonst hätte AMD das auch schon. Das die Konsolen RT bringen, zeigt auch schon deutlich das AMD nicht wegen Nvidia RT bringt. Und selbts wenn es so wäre, wäre das nicht schlecht, da es einfach schon jetzt besser aussieht, oder zumindest in eine realistischere Richtung geht.

DLSS sieht in Wolfenstein echt gar nicht schlecht aus, da muss ich Schaffe recht geben. Ist digital Foundry pro Nvidia, weiß das jemand? Oder ist das verlinkte Video fehlerhaft?



Warum persönlich werden?

Die 3 Spiele sind doch richtig, oder? Bitte mit Aufzählung...

Bei den 22% hast du meiner Meinung nach Recht.



Der Inhalt gefällt mir, aber der Umgangston nicht, gibt es dafür einen differenzierten Button ;)

Servus,

die Quelle ist diese https://www.pcgameshardware.de/Gefo...ollen-Chip-um-22-Prozent-vergoessern-1279431/

Beide Zahlen stimmen, es sind circa 10% mehr der gesamten Chipfläche und cicra 22% mehr Platz verbrauch in den Cuda Cores....

Jetzt muss ich Schaffe kurz beispringen, er hat 7 Spiele aufgezählt, würde sagen beide Zahlen stimmen. Er nimmt das Datum wo der RT Patch erschienen ist, also 7 im Jahr 2019 und ich habe das Datum des ersten Release genommen, da kommt man auf 3. Ist eindeutig ne bedrachtungssache wie man zählt.

Stimmt, ich sollte nicht persönlich werden, probiere in Zukunft fachlicher zu Diskutieren...

Zum Umgangston vom Casurin, habe den schon längst blockiert...
 
Der Inhalt gefällt mir, aber der Umgangston nicht, gibt es dafür einen differenzierten Button ;)

Den Button hab ich mir auch schon oft gewünscht.
Oder manchmal würd' man gerne ein "Like" geben, wegen eines Großteil des Textes mit ordentlichem Inhalt, aber dann kommt am Schluss noch irgend so ein Aggrosatz, weswegen man dem Ganzen dann kein Like geben kann. :nene:


edit:

Da ist es wieder, das Müssen und das Wollen ;)

Ja, genau.

Wie das "reicht doch zum zocken" bei den CPUs, siehe R5 1600 12nm :D

Reicht völlig:

AMD Ryzen 5 1600 [12nm] ab €' '94,80 (2020) | Preisvergleich Geizhals Deutschland
 
Zuletzt bearbeitet:
Auf was für Hardware bist du denn aktuell unterwegs ? Da wäre es mal wieder nützlich gewesen, dass direkt in der Sig zu sehen, oder zumindest im Profil.

Sysprofile hat letztens gesponnen, ändere meine Signatur wieder wenn mein Rechner komplett ist, da wird eh grad alles ausgetauscht.

Aber ja, genau das ist mein Problem. Bin grad mit ner 1060 unterwegs und muss dringend aufrüsten weil ich auch die Monitore auf 1440p aufrüste. Ich will nicht auf Ampere warten und die 5700 XT (die es eigentlich werden sollte) fällt flach weil die Treiber immer noch Banana sind. Da bin ich mir nach längerer Recherche leider sicher. Außerdem modde ich viel, spiele Simulatoren usw., und das ist leider alles mehr oder weniger Nvidia-Terrain.

Lange Rede, kurzer Sinn: Es wird wohl ne Nvidia werden. Gebrauchte Hardware für mehrere hundert Euro ohne Garantie kaufe ich grundsätzlich nicht, also fällt die 1080 auch flach, und dann wird die Wahl langsam eng.. ;) Tendiere aktuell zur 2070 als Übergangskarte, oder auch dauerhafte Karte, je nach dem wie gut Ampere wird. Aber so oder so: Ich muss Raytracing kaufen obwohl ich es nicht/kaum nutzen werde. Das nervt.

Aber auch wenn ich nicht direkt betroffen wäre würde es mich nerven. Man sieht einfach an den ganzen RT-Verschiebungen und (meist) halbherzigen Implementationen das Nvidia gar kein Interesse daran hat Raytracing irgendwem schmackhaft zu machen. Es wird ja sowieso gekauft, weil man es kaufen MUSS. Warum da noch groß Geld reinstecken und die Entwickler anlernen die Technik auch zu nutzen? Reicht doch wenn man ein paar tolle Demos als Werbung zeigen kann. Hätte man eine dedizierte Karte wie die Voodoo gebracht müsste man was tun, denn sonst würde das Teil niemand kaufen. Zum Glück tut AMD jetzt auch was, sonst würde es 10 Jahre dauern bis sich RT durchsetzt.
 
Tendiere aktuell zur 2070 als Übergangskarte, oder auch dauerhafte Karte, je nach dem wie gut Ampere wird.

Ja, ok. Deine Argumente kann ich alle nachvollziehen.

Die 1060 mag ich persönlich. Sehr gute karte für 1080p, auch gerade was den Verbrauch zur Leistung angeht.
Hab ich meinem Kumpel gekauft. Der ist nach wie vor sehr zufrieden und ganz ehrlich war ich erstaunt, als ich ihn letztens besucht habe, wie geil das abging in seinem Spiel(megaflüssig und zackig), auf meinem alten BenQ Monitor, welcher einer der ersten richtigen "Gaming-Monitore" mit 120 Hz in Full HD auf 24" war.
Sah echt hammer aus. Auch flüssig auf meinem alten 8600k, mit 3000MHz Speicher als Basis(hab ich ihm gesponsert ;) , da er mir hier und da mit anderen Dingen hilft und einfach mein Kumpel is. )

Also als ich das gesehen habe, hab ich mich gefragt, warum man eigentlich unbedingt auf 1440p will.

Ja, ok ... man will ja irgendwie immer mehr, z.B. auch mal einen größeren Monitor, wo dann die Auflösung ja nicht unbedingt schlechter werden sollte, was die PPI angeht, also z.B. in der Richtung was ich habe, is glaub ich schon die maximale Größe, die noch in Ordnung geht, für 1440p.
Ups ... langer Satz. ;)


Ähm ... was wollte ich sagen ? :D

Ja ... wenn man unbedingt was will, muss man natürlich in den sauren Apfel beißen und das RTX mitnehmen, wenn man sowohl auf 1440p wechseln möchte, als auch nicht gebraucht kaufen.
Kann ich schon verstehen, dass man darüber angepisst(möööp) , sry, ich meine ... verärgert :D ist.

An Deiner Stelle würde ich mich echt auf die Lauer legen, die bekannten extremschnäppchen Stellen checken, wie z.B. den Mindfactory Damn Deals Bereich, oder ähnliche Extremschnäppchenseiten.
Und dann, wenn es auf einmal nochmal 50-80€ billiger geht, durch Kurzzeit Deal, zuschlagen, z.B. bei deiner erwähnten 2070.


edit:

btw:

8GB Palit RTX2070 DUAL X DDR6 retail PCI-E - RTX 2070 | Mindfactory.de

388 ?

Was meint ihr ?
Kennt einer das Custom Desing der Palit ? Is das leise ? Gut ? Oder "shice" ? ;)


edit:

Bei den neuen Modellen, als die raus kamen, gab's wohl diverse Probleme, die aber eigentlich mittlerweile behoben sein dürften, was BIOS angeht, oder Stromaufnahme in Ampere usw. .
Die Karte, die dort angeboten wird, sieht auch schon neuer, moderner, besser aus, als die ersten Modelle, mit dem rot im Kühler. Finde ich zumindest.

Hier hab ich ein sehr amateurhaften (Hobby-)Test gefunden, der das mir wichtige, worauf's mir ankam, aber ganz gut rüber brachte: Temps und Lautstärke:
YouTube


Gar nicht mal so shice, find ich. :hmm:

Hat die zufällig jemand, hier ausm Forum ?
Direkte Erfahrungen sind meist ganz gut.


edit:

Datt noch gefunden dazu: YouTube

Hm ... muss man checken, ob das so is, wie man's haben möchte.

Oder ob man dann doch mehr haben möchte. :D
(Wie so oft)


edit: Bisschen Sorgen für 1440p macht mir im letzten Video der Vergleich zur 1080 TI FE, welche etwas langsamer ist, als mein Custom Modell, der 1080Ti, so als Vergleich.
Also meine Leistung für 1440p (edit: also in etwa 2080 Niveau) würde ich heute schon mindestens haben wollen und nicht weniger. Aber das bin nur ich. ;)


edit: Moment ... da stimmt aber was nich, mit den Ergebnissen im letzten Video. Schaut mal : YouTube
1080Ti FE genau so schnell wie 2080 Ti ? Nope. Da is was wrong. Also sehr mit Vorsicht zu genießen und eher nur als ganz grobe Orientierung, wenn überhaupt.
Gerade erst aufgefallen.


Naja ... ich klink mich mal aus. Glaub meine Meinung is klar geworden. ;)

Cya und schönen Tag noch !
 
Zuletzt bearbeitet:
btw:

8GB Palit RTX2070 DUAL X DDR6 retail PCI-E - RTX 2070 | Mindfactory.de

388 ?

Was meint ihr ?
Kennt einer das Custom Desing der Palit ? Is das leise ? Gut ? Oder "shice" ?

Gestern Abend bestellt. :ugly: Viel findet man leider nicht über die Karte, aber laut MF-Bewertungen soll sie ganz gut sein. Mal schauen. Notfalls geht sie zurück. Liege schon ein paar Tage auf der Lauer und hab irgendwie Angst das Nvidia die 2070 wieder mal einstellt. Ne 2060 Super will ich aber nicht, hab lieber nen Vollausbau im Rechner, dann kann ich besser schlafen. ;)

Und ja, die 1060 ist wirklich ne feine Karte. Hatte sie vor gefühlt 5 Jahren auf dem Höhepunkt des Mining-Booms gegen ne 470/8GB getauscht als ich ein Angebot bekommen hatte was ich nicht ablehnen konnte, und nie bereut. Aber man merkt das ihr langsam selbst unter 1080p die Puste ausgeht z.B. bei RDR2 (was ich im Gegensatz zu vielen anderen Leuten für extrem gut optimiert halte), und mit 1440p wird es leider nicht besser.
 
Ja ... wenn man unbedingt was will, muss man natürlich in den sauren Apfel beißen und das RTX mitnehmen, wenn man sowohl auf 1440p wechseln möchte, als auch nicht gebraucht kaufen.
Kann ich schon verstehen, dass man darüber angepisst(möööp) , sry, ich meine ... verärgert :D ist.

Mich verwundert nur, dass das nun plötzlich zu einem riesen Thema aufgeblasen wird.
Man hat in vielen Generationen und mindestens mit jeder Einführung eines neuen Featuresets bzw. DX- Version bisher dann Änderungen/Zusätze auf dem Chip mitbezahlt, die man Anfangs nicht richtig nutzen konnte.
Sei es, wenn nicht mangels Leistung dann aber grundsätzlich mangels unterstützender Software.

Da hat sich kein Mensch aufgeregt und Shitstorms produziert. Im Gegenteil - Man war damals noch technikbegeistert und hat alles gierig gegriffen, was es an grafischen Fortschritt gab.
Und es wird einem ja nachwievor die Wahl gelassen, ob man eine Karte mit DXR Unterstützung kauft oder nicht.
Es steht ja keiner mit geladener Waffe neben einem und zwingt einen, RTX Karten zu kaufen...

Reicht einem der Leistungssprung von RTX Karten nicht aus, will man RT nicht mitbezahlen und ist einem das sowieso zu teuer, dann kann man doch einfach die Finger stillhalten und die Karten nicht kaufen.
Es ist ja schliesslich kein Grundbedürfnis oder Grundrecht, dass ein Hersteller eine Grafikkarte so gestalten muss, dass mir dessen Leistungsmix am meisten zusagt.

Wo ist also das Problem, dass man wegen der Karten so am Rad drehen muss, wie es hier teilweise scheint?
Da wird dann aus ausgereiften und mit RT funktionierenden AAA Produktionen schonmal eine Tech- Demo gemacht oder FPS Zahlen um die 60 als unspielbar bezeichnet und in jedem Thread gebetsmühlenartig erzählt wie unnötig und schlecht das nicht alles sei.

Früher hat man die Forenthemen einfach gemieden, die einen nicht interessiert haben.
Heutzutage geht man selbst bei Desinteresse gezielt in diese Themen rein und verbreitet seine negative Einstellung dazu. à la "Ich muss jedem meine aktuelle Gefühlslage zu allem und jedem Mitteilen" aka jeden Tag mein Essen posten.

Wenn ich mit Haar- Extensions nichts anfangen kann und finde, dass das rausgeschmissenes Geld ist und schlecht aussieht, dann würde ich doch einen Teufel tun und mich dann im Haar- Spezial- Forum in jedem Haarextension Thread darüber auslassen, wie schlimm das alles sei und wie schlecht ich es finde.

Ich verstehe diesen Trend einfach nicht...

LG
Zero
 
Zuletzt bearbeitet:
Mich verwundert nur, dass das nun plötzlich zu einem riesen Thema aufgeblasen wird.

Nicht von Jedem. ;)
Also lassen wir das doch etwas runterkühlen. :cool:

Muss man halt schaun, was man haben will, womit man zufrieden is und gut is.


edit(wie meistens ;) ) :

Notfalls geht sie zurück.

Ich denke, wenn du die 1060 gewohnt bist, wird sie nicht zurück gehen.

Wünsche schon mal vorsichtshalber viel Spaß mit dem Teil ! :daumen:
(Denn das isses doch, worauf's ankommt: Hauptsache Fun ! :) )
 
Man hat in vielen Generationen und mindestens mit jeder Einführung eines neuen Featuresets bzw. DX- Version bisher dann Änderungen/Zusätze auf dem Chip mitbezahlt, die man Anfangs nicht richtig nutzen konnte. Sei es, wenn nicht mangels Leistung dann aber grunsätzlich mangels unterstützender Software.

Wenn du mal die Chipgrößen von Pascal und Turing vergleichst (TU102 ist schlappe 135% größer als GP102) ist das aber diesmal ziemlich viel was man da mitbezahlt. Ob nun 10% oder 22% oder irgendwas in der Mitte.. Es ist ziemlich viel für ein nahezu brachliegendes Feature. Ich glaube kaum das die Wafer die letzten Jahre günstiger geworden sind. Und ich glaube kaum das man jemals zuvor Kunden so viel "aufgezwungen" hat. Hier geht es nicht um eine neue DX-Version und auch nur entfernt um DXR, sondern um proprietären RT/Tensor-Core-Balast.

Es steht ja keiner mit geladener Waffe neben einem und zwingt einen, RTX Karten zu kaufen...

Das Totschlag-Argument schlechthin.. Was soll man denn sonst kaufen wenn man 1440p/4K spielen möchte? Eine 1660 Ti mit 6GB? Würde Nvidia eine 1670 oder 1680 anbieten wäre viele Leute inkl. mir absolut zufrieden, ob du es glaubst oder nicht. Nvidia entwickelt für Profit am Markt vorbei und pfeift auf die Wünsche seiner Kunden. Dann muss man halt auch damit rechnen das ein paar von denen das lautstark ausdrücken.

Heutzutage geht man selbst bei Desinteresse gezielt in diese Themen rein und verbreitet seine negative Einstellung dazu. à la "Ich muss jedem meine aktuelle Gefühlslage zu allem und jedem Mitteilen" aka jeden Tag mein Essen posten.

.. sprach er und tut grad genau dasselbe.. Klassisches Eigentor. Es gibt immer noch die Ignorier-Funktion, von der du gerne jederzeit Gebrauch machen darfst wenn du den Sinn eines Diskussionsforums nicht verstehst, dir irgendwelche Meinungen nicht passen und/oder du Blümchen-Sprache bevorzugst. ;)

Wünsche schon mal vorsichtshalber viel Spaß mit dem Teil !
(Denn das isses doch, worauf's ankommt: Hauptsache Fun ! )

Danke und schönes Schlusswort. :daumen:
 
Dann zähl die 6 auf die 2019 released sind

Youngblood, Metro Exodus, Control, Abducted, Deliver us the Moon, Stay in the Light, Quake II RTX, Mechwarrior V.
Nach deiner Zählweise wären das ja noch mehr.:ugly: Also vielleicht merkst du langsam wie albern das ist.
Irgendwie willst du die Zahl der Spiele immer künstlich begrenzen. Wie erklärt sich das? Ist die Abneigung gegen Nvidia und DXR so groß?
Ansonsten sehe ich keine Grund.

Am besten ist ja Nuallan. Hated DXR/RTX in Grund und Boden und kauft sich dann ne RTX2070.:lol:
Wieso nicht ne 5700XT? Ist doch 0,5% laut Index schneller.:schief:

Würde Nvidia eine 1670 oder 1680 anbieten wäre viele Leute inkl. mir absolut zufrieden, ob du es glaubst oder nicht.

Liegt wohl an der generellen Unkenntnis was die neuen Features betrifft, anders kann ich mir das nicht erklären.


Und AMD tut das dann also auch, weil sie auch "Hardware RT" integrieren und Sony und Microsoft auch.
Also haben mal eben alle den Markt falsch eingeschätzt und nur du kennst die Wahrheit.
Dass die Nutze die Hardware gern günstiger hätte, ist ja wohl keine Neuigkeit.

Dann muss man halt auch damit rechnen das ein paar von denen das lautstark ausdrücken.

Dann sind eben einigen Nutzern die Preise zu hoch, na und? Der Markt zeigt aber, dass Nvidia diese Preise nehmen kann, ergo ist es auch gerechtfertigt.
Wenn sie Preise zu hoch wären, dann müsste Nvidia diese senken.

.. sprach er und tut grad genau dasselbe..

Also Zero Zerp ist wirklich der letzte der sich für RT nicht interessieren würde.:huh:

Es gibt immer noch die Ignorier-Funktion, von der du gerne jederzeit Gebrauch machen darfst wenn du den Sinn eines Diskussionsforums nicht verstehst, dir irgendwelche Meinungen nicht passen und/oder du Blümchen-Sprache bevorzugst. ;)

Wenn diese Meinungen wie du sie nennst in Falschinformationen verbreiten und pures Bashing abdriften - so wie es generell hier der Fall ist - muss man dagegen ankämpfen.
Das gilt genauso für das Wunschkonzert bezüglich Nvidias angeblich schlechten RTX Absatz, was von vorne und hinten eine Erfindung ist und nicht von den Verkaufszahlen gedeckt ist.
 
Zuletzt bearbeitet:
Am besten ist ja Nuallan. Hated DXR/RTX in Grund und Boden und kauft sich dann ne RTX2070.:lol:

Lass doch mal bitte das Provozieren. Das nervt und macht unsympathisch.

Unnötig. Bleib doch mal entspannt und rauch dir lieber n Kaffee, oder so. ;) jumpin.gif


Peace ! :D :daumen:

(Wenn ich Nuallan wäre, würde ich auf sowas gar nicht mehr antworten. )


edit:

Bitte dieses posting hier nicht "liken". Das musste nur mal raus und sollte etwas zum Nachdenken anregen. That's all.
Over and out.
 
Zuletzt bearbeitet:
Youngblood, Metro Exodus, Control, Abducted, Deliver us the Moon, Stay in the Light, Quake II RTX, Mechwarrior V.
Nach deiner Zählweise wären das ja noch mehr.:ugly: Also vielleicht merkst du langsam wie albern das ist.
Irgendwie willst du die Zahl der Spiele immer künstlich begrenzen. Wie erklärt sich das? Ist die Abneigung gegen Nvidia und DXR so groß?
Ansonsten sehe ich keine Grund.

:

Deliver us the Moon: Datum der Erstveröffentlichung: 28. September 2018
Quake 2: Datum der Erstveröffentlichung: 1997
Stay in the Light: Early-Access-Phase
Abducted: Keine Infos gefunden


Wie ich shcon gesagt habe, kommt drauf an wie man zählt, ich nehme halt das Release Datum eines Spiels her und zähle nicht jeden patch als neues Release Datum.
Du zählst wann der RT patch kam, ist Ansichtssache, so hat jeder recht oder keiner, mir egal....

Und ein Spiel im early Access ist für mich kein release, dann wäre Star City ja scho ewig releasd nach der logik
 
Zurück