Turing: Nvidia gibt Hinweise auf Release der Geforce RTX 2080

Setzt denn jetzt das demnächst folgende Metro: Exodus auf Raytracing oder war das einfach bloß ne Art Werbedemo für Raytracing?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Falls das Spiel davon wirklich profitiert und die Karten sich dadurch positiv absetzen können, dürfte es noch einmal spannend im GPU Sektor werden. ;)

Ist eine Demo steht sogar in der Videobeschreibung. Läuft auf einer modifizierten 4A Engine mit dem Asset von Metro: Exodus.

Weil es diese Karten nach release (1-2Monate) für sogar für rund 470€ gab

In welchem Paralleluniversum das den. 3 Monate nach Release habe ich für meine GTX1080 749 € bezahlt.

die 1080 gab es Langezeit für rund 500€, auch costum modelle.
Selbst schuld wenn die Idioten 600-700€ für eine 1080 ausgeben nur weil da z.b. lightning,strix oder hubbabubba drauf steht. Eine Normale 1080 mit costum pcb gibts/gabs immer für 500€. Mit Ausnahme wärend des mining boom

Eine GTX1080 FE wurde erst zur Release der GTX1080Ti im März 2017 auf den Preis von 499 US$ gesenkt, was bei uns immer noch einen Preis von 560 € bedeutetet. Die GTX1080 die es schon immer für 500 € gab möchte ich gerne mit Kaufquittung sehen mit einem Datum von Mai 2016 - Dezember 2016 sehen.

Nein, alle kommenden Generationen von Nvidia in der Geforce-Sparte werden weiterhin Raytracing unterstützen, entweder über die Hardware, oder über Softwarelösungen (Treiber, Gameworks, u.s.w.).
RT spielt bei Pascal keine Rolle, da diese GPUs RT per Hardware nicht unterstützen können.

Da Nvidia massiv diese Technologie pusht, und alle großen Studios und Engines zukünftig RT unterstützen werden, wird besonders die letzte Gen darunter "leiden" in Benchmarks, und natürlich noch ältere GPUs. Beim Wechsel von Fermi auf Kepler, aber auch von Kepler auf Maxwell, stürzten die alten GPUs kräftig ab. Genau das wird jetzt auch beim Wechsel von Pascal auf Turing passieren.

Schön, dass sie das werden, aber bis das in der breiten Masse der Spiele zum tragen kommt, kann man noch locker 1-2 Generationen überspringen. Die Schnittstelle ist erst seit März diesen Jahres angekündigt. Spieleentwicklungen dauern in der Regel 3-5 Jahre. Bis dahin ist schon lange der Nachfolger erhältlich. Es gibt also absolut keinen Grund jetzt "Panikkäufe" zu tätigen um "Up To Date" zu sein. Bis das wirklich zum tragen kommt ist sowieso eine neue Grafikkarte fällig und das auch nur wenn die Spiele für die es relevant wird auch spielenswert sind. Zumal jetzt nicht alle Spiele spontan unspielbar werden.
Wem es nur um irgendwelche Benchmarks geht, der soll meinetwegen sofort zuschlagen. Wäre ja traurig, wenn so ein paar dämliche Zahlen die Minderwertigkeit der eigenen Hardware zur Schau stellen. Und während dann einige angesichts der Benchmarkergebnisse das heulen bekommen, spiele ich einfach gemütlich weiter auf meiner bereits vorhandenen Hardware.

Ich werde definitv diese Grafikkartengeneration überspringen.
 
Zuletzt bearbeitet:
Für mich stellt sich erstmal folgende Frage:

Angenommen, das Raytracing-Gedöns wird künftig tatsächlich von der Breite der Games unterstützt, da es Nvidia gelingt, diese Technik massiv zu pushen:
Was macht AMD dann?
Eigtl. müssten sie dann ihre ProRender-Raytracing Technologie auch irgendwie in Navi einbauen, wenn sie tatsächlich im Gamingmarkt Anbieter bleiben wollen.
Wenn das erst mit der mysteriöse NextGen Architektur nach Navi kommen sollte, dann können sie sich Navi fürn Desktop sparen, da Navi dann bei RT eher kein Land sehen würde.

Das wiederrum dürfte die Nvidia Karten über längere Zeit eher teurer als billiger machen....Intel wird seine ArcticSound Karten wohl auch nicht so schnell releasen. Hoffentlich hat AMD was in der Hinterhand, was keiner weiß.

Ich weiß, alles nur Kaffeesudleserei, aber so positiv ich Raytracing Support finde, preislich wirds in Zukunft sicher nicht gerade besser.
 
Irgendwie ist die Bezeichnung RTX etwas sehr seltsam, wenn man bedenkt, dass laut Aussage von Lederjacken-Jonny der durchschnittliche nV-Käufer zu dämlich ist die richtige Karte zu kaufen (Hauptbegrünung fürs GPP) und sie nun ihre neuen Modelle ähnlich den RX-Dingern von AMD benennen.

Da werden in Zukunft bestimmt in allen Hardwareforen eben jene durchschnittlichen User herumheulen, dass ihre R(T)X fünf80 oder Vega irgendwas gar kein Raytracing beherrscht ..
 
Für mich stellt sich erstmal folgende Frage:

Angenommen, das Raytracing-Gedöns wird künftig tatsächlich von der Breite der Games unterstützt, da es Nvidia gelingt, diese Technik massiv zu pushen:
Was macht AMD dann?
Eigtl. müssten sie dann ihre ProRender-Raytracing Technologie auch irgendwie in Navi einbauen, wenn sie tatsächlich im Gamingmarkt Anbieter bleiben wollen.
...

Die Radeon Rays funktionieren schon in den aktuellen GPUs und auch bis runter zu ziemlich alten GPUs der HD 5000 Reihe:

Man braucht nur eine Grafikkarte, die OpenCL 1.2 unterstützt:
Radeon-Rays - GPUOpen

Und das sind sehr viele - sowohl von AMD, als auch von Nvidia und selbst Intel CPUs ab der 3000er Reihe:
OpenCL - Wikipedia
 
Oh man, diese Diskussion wieder. PC exklusive, und erstrecht Nvidia exklusive Effekte haben sich bei den Spielen noch nie sonderlich gut verbreitet.

Wo ist PhysX? Wo ist Hairworks? Wo ist TressFX? Wo ist VXAO? Wo sind die AMD exklusiven DX12 Features in aktuellen Spielen?

Es gibt hier und da mal vereinzelt implementierungen, aber das was sich durchsetzt ist alleine das, was die Konsolen können. Nicht mehr und nicht weniger. Es war schon immer so und es wird auch weiterhin so sein.
Wer sich so ne Karte hauptsächlich wegen der Features kauft, der kann das Hobby noch nicht lange betrieben haben...
 
Wenn das erst mit der mysteriöse NextGen Architektur nach Navi kommen sollte, dann können sie sich Navi fürn Desktop sparen, da Navi dann bei RT eher kein Land sehen würde.
Navi hat seinen Zweck für AMD doch schon längst erfüllt.
Die neue Gen wurde exklusiv für Sonys PS5 entwickelt, und wird in Unmassen verbaut werden.
D.h. AMD wird wieder viele Millionen Semi-Custom-Chips an Sony verkaufen.
Und für den PC läuft Navi nebenbei mit, egal wie oft es sich dort verkauft, oder nicht verkauft.
Die Kosten für die Chipentwicklung hat damit AMD schon wieder drin, und auch deshalb 2/3 der RTG dafür abgestellt.
Alles was jetzt von AMD entwickelt wird, kann frühestens in 5 Jahren am Markt ankommen, also in ferner Zukunft.
 
Zuletzt bearbeitet:
Navi hat seinen Zweck für AMD doch schon längst erfüllt.
Die neue Gen wurde exklusiv für Sonys PS5 entwickelt, und wird in Unmassen verbaut werden.
D.h. AMD wird wieder viele Millionen Semi-Custom-Chips an Sony verkaufen.
Und für den PC läuft Navi nebenbei mit, egal wie oft es sich dort verkauft, oder nicht verkauft.

Wenn die Architektur exklusiv für PS5 entwickelt worden wäre, gäb es keine Chips für Endkunden.
Immer auf dem Teppich bleiben...
 
Natürlich kann man dann auch einen Ableger für den PC daraus machen.
AMD ist was das betrifft sehr flexibel, siehe Intel-Deal.
Das hätte vorher keiner für möglich gehalten, und alle für verrückt erklärt die dass behaupten.
Die 2/3 der RTG die an Navi für Sony gearbeitet haben steuerten auch "nur" die iGPU bei.
Und für diese iGPU kann man auch eine einzelne Maske entwickeln, als dGPU fürs PC-Gaming.

Übrigens richtet sich Nvidias Turing auch nicht an uns PC-Gamer, sondern an professionelle Anwender.
Deshalb hatte man auch die Siggraph als Bühne gewählt um die neue Architektur vorzustellen.
Auch für Nvidia sind die PC-Gamer nicht (mehr) so wichtig.
Weder für AMD noch für Nvidia sind wir PC-Gamer der Nabel der Welt.
Beide weichen in andere Bereiche aus um wachsen zu können.
 
Zuletzt bearbeitet:
Animetakerfan sprach ja davon, dass es die Karten "schon immer" für €550 und weniger gegeben hat...

Als NV die UVP gesenkt hat (märz 2017), gab es die karte sehr häufig für unter 500.-

zb.
GTX1080 KFA2 EXOC GDDR5X + Spiel der Wahl - mydealz.de
Palit Geforce GTX 1080 Dual OC + Ghost Recon / For Honor fuer 499€ [Mindfactory ab 0 Uhr] - mydealz.de

Vielleicht wird die UVP wieder gesenkt oder die karten sind direkt so günstig, wer weiss das schon ?!
 
Zuletzt bearbeitet:
Ist eine Demo steht sogar in der Videobeschreibung. Läuft auf einer modifizierten 4A Engine mit dem Asset von Metro: Exodus.

Meine eigentliche Frage war ja deshalb auch, ob das endgültige finale Game zusätzlich darauf setzen wird.
Das das Video hier erst einmal bloß ne Demo war, war mit ja bewusst. Nur eben die Frage ob´s dabei nu bleibt oder nicht, stellte sich mir. ;)
 
Klingt zwar reizvoll, aber lässt nichts Gutes für die Preise der RTX 2080/2070 ahnen... (schätze jetzt mal so ins Blaue: 1000/800 Euro oder so in dem Dreh)

Hm, wird dann wohl doch ne Sale oder Outlet 1080ti in ein paar Wochen oder Monaten... Schade
 
Navi hat seinen Zweck für AMD doch schon längst erfüllt.
Die neue Gen wurde exklusiv für Sonys PS5 entwickelt, und wird in Unmassen verbaut werden.
D.h. AMD wird wieder viele Millionen Semi-Custom-Chips an Sony verkaufen.
Und für den PC läuft Navi nebenbei mit, egal wie oft es sich dort verkauft, oder nicht verkauft.
Die Kosten für die Chipentwicklung hat damit AMD schon wieder drin, und auch deshalb 2/3 der RTG dafür abgestellt.
Alles was jetzt von AMD entwickelt wird, kann frühestens in 5 Jahren am Markt ankommen, also in ferner Zukunft.

Navi hat Gerüchten zufolge ebenfalls spezielle AI Schaltkreise ala Tensor-Cores. Angeblich sollte laut Raja bereits Vega damit ausgestattet werden, allerdings waren Zeit und Ressouren zu knapp dafür.
 
Raja hat auch erzählt, dass 2 RX480 im Crossfire effizienter sind als ne 1080

dabei brauchte eine schon fast soviel wie ne 1080
 
Klingt zwar reizvoll, aber lässt nichts Gutes für die Preise der RTX 2080/2070 ahnen... (schätze jetzt mal so ins Blaue: 1000/800 Euro oder so in dem Dreh)
Ist natürlich alles Kaffeesatzleserei, aber dass es so extrem wird, glaube ich dann doch nicht. Wobei das natürlich auch davon abhängt, wie leistungsstark die neuen Modelle denn nun tatsächlich sein werden.

Die aktuelle UVP der 1080Ti (FE) beträgt 760 Euro und im Handel bekommt man die Karte ab ungefähr 700 Euro. Sollte die 2080 tatsächlich nur etwa 10% schneller sein als die 1080Ti (von Dingen wie Stromverbrauch reden wir jetzt mal nicht), wäre alles über 800 Euro nicht wirklich angemessen. (Ein noch höherer Preis ließe sich bestenfalls durch deutlich mehr Speicher wie 16 statt 11 GB rechtfertigen.)

So weit ich mich erinnere, war die anfängliche UVP der 1080 bei 789 Euro. Dass Nvidia da den einen oder anderen Euro drauflegt, denke ich schon, aber da würde ich für 2080/2070 eher in Richtung 849/699 tippen. 1000 Euro ist eine Schallgrenze, die selbst die Apple-Fanschar beim letzten iPhone nicht so ohne weiteres hinter sich gelassen hat - und wäre innerhalb von nur sechs Jahren eine Verdoppelung(!) gegenüber der GTX680 für 500 Euro.

Aber wie gesagt, ich rate ja auch nur wild rum ...
 
"Angeblich" laut dem damaligem RTG-Boss?
Ich glaube das ergibt keinen Sinn. :D

Raja hat so etwas nicht erwähnt, falls doch, würde ich gerne die Quelle sehen.

Gerüchte Gerüchte... da gibt es keine gesicherten Quellen, deshalb "angeblich" :)

Today, however, a new report is suggesting that Navi will be the first GPU from AMD with circuity that is dedicated to artificial intelligence (AI) operations. According to Fudzilla, Raja Koduri’s Radeon Technologies Group wanted to enable such functionality in Vega, but just didn’t have the time/resources to make that leap.

AMD’s Navi 7nm GPU Architecture To Reportedly Feature Dedicated AI Circuitry | HotHardware


Edit:
Navi to have AI specific circuits

Well-placed sources have confirmed that Navi, the next generation 7nm GPU core will have some dedicated Artificial intelligence circuitry. Nvidia has Tensor cores built in Volta V100, AI chip, and some sort of optimization and circuitry is coming to the next generation RTG GPU too.

There was not time to build machine learning/artificial intelligence specifics into Vega. By the time artificial intelligence and machine learning became a big thing, the Vega design was well under way.

Da hat Hothardware ziemlich frei interpretiert (die Aussage mit Raja)^^ Ich dann auch etwas halbfrei...
 
Zuletzt bearbeitet von einem Moderator:
und wäre innerhalb von nur sechs Jahren eine Verdoppelung(!) gegenüber der GTX680 für 500 Euro.

Aber wie gesagt, ich rate ja auch nur wild rum ...

Innerhalb von 8 Jahren wäre es eine verfünffachung des Preises :ugly::lol:
Basierend darauf das dies alles Nachfolger des GF104 von 2010 sind :what:

Aber hey, die Leute zahlen ja :D
 
Ist doch völlig egal was Nvidia verlangt für die GPU. Die ersten Karten im Nvidia eigenen Shop werden egal was es kostet direkt ausverkauft sein. Nvidia hat eben solche Kunden. Wenn ich sehe das hier einige schon von einer TItan RTX reden ( alles andere kommt ja nicht in Frage) und der Preis keine Rolle spielt, merkt man doch das die Kunden durchaus da sind. Die Randgruppe hier die sich über die Preise aufregt kann da noch lange motzen :)
 
Zurück