Seit ihr nicht in der Lage einfach Preise zu vergleichen? Man liest hier nur Palaver.
499 Dollar, also werden die günstigsten Karten auch für ~500 kommen, sobald ausreichend verfügbar.
Mit 15% mehr Leistung als die 1080, ergo ist auch das P/L/V inkl. DLSS wahrscheinlich 20 bis 30%besser.
Was daran interessant ist, ist doch, dass mit diesem Design nVidia gegen die historische Tendenz läuft, fixed function Hardware durch generische bzw. flexiblere zu ersetzen. GPUs haben sich über die Jahrzehnte von festen Renderpipelines zu relativ frei programmierbaren Shader-Architekturen gewandelt, die so für unterschiedlichste Zwecke verwendet werden konnten.... führt Nvidia Echtzeit-Raytracing ein. Unkenrufe hin oder her, das ist durchaus eine technische Revolution, auch wenn die Leistung in klassischen Grafikanwendungen eher unspektakulär ausfällt.
Was daran interessant ist, ist doch, dass mit diesem Design nVidia gegen die historische Tendenz läuft, fixed function Hardware durch generische bzw. flexiblere zu ersetzen. GPUs haben sich über die Jahrzehnte von festen Renderpipelines zu relativ frei programmierbaren Shader-Architekturen gewandelt, die so für unterschiedlichste Zwecke verwendet werden konnten.
Stattdessen opfert nVidia einen erheblichen Teil der Die-Fläche für dedizierte RT und KI Logik, die bei anderen Aufgaben brachliegt. Alternativ hätte nVidia auf diese dedizierten Cores verzichten können, und die Die-Fläche komplett für die generischen Shader verwenden können, dann wären RT und KI Berechnungen zwar nicht so schnell, dafür hätte man aber bei den meisten anderen Aufgaben deutlich mehr Leistung.
Das aktuelle Resultat ist nun, dass Turing riesige und teure Dies hat, die bei "normalen" Aufgaben ein überschaubares Leistungsplus gegenüber Pascal bieten. Für tatsächliches Raytracing bietet selbst die 2080Ti mit KI Interpolation bzw. Denoising gerade mal genug Leistung für eben noch ausreichende FPS bei FullHD Auflösungen. Die Folge wird sein, dass Spiele RT bestenfalls für einige Details verwenden werden (können), zumindest in dieser Generation. Für die Tensor-Cores gibt es im Consumer Bereich noch nicht all zu viele Anwendungen, nVidia spekuliert anscheinend darauf, dass sich das soweit ändern wird, dass man die Mehrleistung der dedizierten Hardware brauchen wird.
IMO geht nVidias Rechnung irgendwie nicht auf. Das Ganze wirkt wie eine Technologie-Demo die versehentlich zum Produkt gemacht wurde. Ironischerweise wird es für AMD dadurch leichter, den Performance-Rückstand aufzuholen, es sei denn, AMD meint, mit solch dedizierter Hardware gleichziehen zu müssen. Auch wenn RT und KI langfristig an Bedeutung gewinnen werden, kann ich mir gut vorstellen, dass AMD den Weg gehen wird, ihre generischen Shader etwas zu erweitern (GCN scheint eine recht flexible Architektur zu sein), so dass RT und KI besser laufen, ohne dass man dedizierte Cores einsetzen muss.
ich gehe davon aus, dass uns nvidia noch mit 2000er GTX überraschen wird. also großes die und voll mit shadereinheiten - pascal 2.0 also. wäre nur logisch - denn rohleistung steckt in den shadern der 2000er ohnehin massig - überlegt mal wenn die das übers ganze DIE ausbreiten können^^ die RTX sind für raytracing in FHD und pascal 2.0 also GTX wird dann für 4k-gaming beworben... wenn sie ihre marktmacht ausnutzen wollen, dann wird das so kommen.
Sehr wahrscheinlich nicht. Sie haben an der Technik in Turing eigenen Angaben nach 10 Jahre entwickelt und verkaufen es als "Paradigm Shift" in der Grafikberechnung. Da werden sie kaum zurück rudern und eine parallele Serie auflegen, die die RTX-Karten kannibalisiert. Niemand würde die mehr kaufen, weil Raytracing noch in keinem Spiel funktioniert und auch bald nur einer Hand voll. Dann wärs vorbei mit dem Experiment. Stattdessen nutzt Nvidia ihre Marktmacht und opfert Transistoren, um den Schritt zu Raytracing jetzt zu wagen, auch wenn das erst in ein paar Generation wirklich nutzbar wird was Leistung und Verfügbarkeit angeht. Irgendwie müssen sie ja anfangen und jetzt ist eigentlich kein so schlechter Zeitpunkt. Wenn sie gegen AMD konkurrieren müssten, die einen 750mm²-Chip ohne Raytracing, aber mit deutlich mehr Leistung als der bei 2080 Ti hätten, dann wär das was anderes, aber dann wär Turing in dieser Form wohl gar nicht erst erschienen...ich gehe davon aus, dass uns nvidia noch mit 2000er GTX überraschen wird. also großes die und voll mit shadereinheiten - pascal 2.0 also. wäre nur logisch - denn rohleistung steckt in den shadern der 2000er ohnehin massig - überlegt mal wenn die das übers ganze DIE ausbreiten können^^ die RTX sind für raytracing in FHD und pascal 2.0 also GTX wird dann für 4k-gaming beworben... wenn sie ihre marktmacht ausnutzen wollen, dann wird das so kommen.
Du vergleichst Äpfel mit Birnen. Im Gegensatz zu Hairworks und Raytracing sind Rapid Packed Math und HBM2 nämlich keine sichtbaren Grafikeffekte, sondern Funktionen der Hardware bzw. einfach ein Speicherstandard. HBM2 nutzt Nvidia bei Volta übrigens auch, um eine ausreichend hohe Speicherbandbreite zu erreichen. Aber mit der Nennung von HBM2 verkauft man keine Grafikkarten, weil dem Spieler egal sein kann wie die Leistung zustande kommt, solange sie da ist. Sichtbare Grafikeffekte sind was komplett anderes. Zumal Raytracing durchaus die Zukunft des Renderings ist und in der Theorie eine deutlich realitätsnahe bzw. fotorealistische Beleuchtung ermöglicht. Mit der Einstellung "was will ich mich besserer Grafik, mich interessieren nur Auflösung und FPS" könnten wir heute vielleicht Half-Life 2 in 16K mit 200FPS spielen, aber die Grafik hätte sich nicht weiterentwickelt. Die Leistung reicht aktuell nur noch lange nicht für einen großflächigen Einsatz von Raytracing, das wird noch einige Jahre brauchen.Ich persönlich finde das Nvidia uns eine teure Technik aufbrummen will die keiner braucht. was wollen denn wir Gamer? Maximale FPS und gute Frametimes in egal welcher Auflösung ob jemand in FHD/60fps oder 144hz oder 1440 oder in 4K spielt. Raytracing und DLSS ist auch so eine Niete wie Rapid Packed Math und HBM2 von AMD. Alles Techniken die kein Gamer braucht aber die hersteller einem aufschwatzen wollen. Man hat doch gesehen wie beliebt PhysX oder Hairworks ist und wie der ganze Schrott so heißt.
Sehr wahrscheinlich nicht. Sie haben an der Technik in Turing eigenen Angaben nach 10 Jahre entwickelt und verkaufen es als "Paradigm Shift" in der Grafikberechnung. Da werden sie kaum zurück rudern und eine parallele Serie auflegen, die die RTX-Karten kannibalisiert. Niemand würde die mehr kaufen, weil Raytracing noch in keinem Spiel funktioniert und auch bald nur einer Hand voll. Dann wärs vorbei mit dem Experiment. Stattdessen nutzt Nvidia ihre Marktmacht und opfert Transistoren, um den Schritt zu Raytracing jetzt zu wagen, auch wenn das erst in ein paar Generation wirklich nutzbar wird was Leistung und Verfügbarkeit angeht. Irgendwie müssen sie ja anfangen und jetzt ist eigentlich kein so schlechter Zeitpunkt. Wenn sie gegen AMD konkurrieren müssten, die einen 750mm²-Chip ohne Raytracing, aber mit deutlich mehr Leistung als der bei 2080 Ti hätten, dann wär das was anderes, aber dann wär Turing in dieser Form wohl gar nicht erst erschienen...
Du vergleichst Äpfel mit Birnen. Im Gegensatz zu Hairworks und Raytracing sind Rapid Packed Math und HBM2 nämlich keine sichtbaren Grafikeffekte, sondern Funktionen der Hardware bzw. einfach ein Speicherstandard. HBM2 nutzt Nvidia bei Volta übrigens auch, um eine ausreichend hohe Speicherbandbreite zu erreichen. Aber mit der Nennung von HBM2 verkauft man keine Grafikkarten, weil dem Spieler egal sein kann wie die Leistung zustande kommt, solange sie da ist. Sichtbare Grafikeffekte sind was komplett anderes. Zumal Raytracing durchaus die Zukunft des Renderings ist und in der Theorie eine deutlich realitätsnahe bzw. fotorealistische Beleuchtung ermöglicht. Mit der Einstellung "was will ich mich besserer Grafik, mich interessieren nur Auflösung und FPS" könnten wir heute vielleicht Half-Life 2 in 16K mit 200FPS spielen, aber die Grafik hätte sich nicht weiterentwickelt. Die Leistung reicht aktuell nur noch lange nicht für einen großflächigen Einsatz von Raytracing, das wird noch einige Jahre brauchen.
Ich will bis spätestens Weihnachten auf WQHD umsteigen und meine Zotac GTX970 AMP hängt im OC Limit. Mir fehlt also nur noch eine fette Karte. Problem ist nur Raytracing interessiert mich in diesem Stadium nicht die Bohne und die Leistung ist mir in den 2 Jahren Entwicklung zu Gering für den noch höheren Preis. Eine gute 1080 gibt es weit und breit nicht mehr und darunter möchte ich nicht (wqhd + 144 hz) Eine gute 1080 Ti liegt leider in einem bereich den ich nicht bereit bin zu Zahlen (800€ + ) Kann mir bitte jemand Helfen ?
Die Vega´s sind zwar nicht so effizient wie Pascal aber würd eich heute eine gPU kaufen wollen und vorher war bei mir eine R9 280X verbaut und jetzt eine 1080 würde ich zu einer Vega 64 raten und da gibt es schon eine für 484€.
Radeon RX VEGA -> Grafikkarten (VGA) -> Hardware | Mindfactory.de - Hardware, Notebooks & Software
Ich bin von Vega enttäuscht aber wollte ich heute aufrüsten wäre es diese Vega 64.
Die 1080ti ist das beste was man machen kann
Die Frage ist die: Wann erreicht eine derzeit ziemlich uninteressante 2080 eine breite Käuferschaft? Die derzeitigen Preise bei dem Angebot sind ja größtenteils gefakete Lockangebote...