Nvidia Geforce GTX 1180: Release bereits ab Juli 2018?

Ich hoffe auf einen Vega Refresh in 7nm in 2019, der es wenigestens halbwegs mit der 1080 Ti aufnehmen kann.
Kommt und nennt sich Navi. Mit GDDR6 (ziemlich sicher) und HBM (wahrscheinlich, außer man verzichtet auf Highend-Varianten).
Je nachdem ob Highend-Varianten kommen, wird man damit auch mal die 1080 Ti schlagen, aber die ist dann ja nicht mehr aufm Markt, wir reden da schon vom Nachfolger in 12nm (1180 oder besser 2080 und Ti) oder aber auch schon 7nm Varianten dieser neuen Architektur (Nvidia wird wohl zeitnah reagieren auf AMDs 7nm Generation, die eben sicher nicht zum Ziel hat 3 Jahre alte Nvidia GPUs zu schlagen sondern moderne)
 
Zuletzt bearbeitet:
AMD wird dafür beten und eine Kerze anzünden, ansonsten wird's ganz düster. An den GT102 denken sie da besser erst gar nicht.

Anhang anzeigen 997777

Anhang anzeigen 997778

Anhang anzeigen 997779


Auch ein schönes Beispiel für DX12/Low-Level-API/Asynchronous Compute als praxisrelevanter "AMD Vorteil" in Spielen:

Die low-cost midrage GTX 1180 OC wird im Bereich der Titan V Hybrid OC landen, die 1180Ti OC als GT102 setzt sich davon nochmal ein gutes Stück ab.

8_sniper-elite-titan-v-hybrid.png

Titan V Hybrid Mod Results: 2GHz+ Clock Stability, Increased Efficiency | GamersNexus - Gaming PC Builds & Hardware Benchmarks




Sniper Elite 4
Engine: Rebellion-Eigenentwicklung (Direct X 12)
Besonderheiten: Asynchronous Compute (AC), kein Temporal-AA
Detaileinstellungen: Maximal, AC an, 150 % Auflösungsskalierung
Benchmarkszene: Durchschnittlich anspruchsvoll, aber sehenswert

Schleichen statt Rennen, Sniper statt Raketenwerfer und DX12 statt DX11 - davon handelt Sniper Elite 4 (Techniktest). Bereits der Vorgänger punktete mit einer fortschrittlichen Engine - neben Direct X 11 und konsequenter Tessellation bot es Support für AMDs Mantle-API -, welche für den aktuellen Teil weiterentwickelt wurde. Den britischen Entwicklern gelang dabei das Kunststück, an dem viele andere Studios scheiterten: Die Low-Level-API steigert die Leistung! Dabei hilft der Einsatz von Asynchronous Compute, welches die parallele Abarbeitung von Grafik- und Compute-Aufgaben sicherstellt. Zur Glückseligkeit fehlt dem Spiel lediglich eine temporale Kantenglättung. Immerhin bietet es internes Downsampling, das die Grafik effektiv "entflimmert". Wir testen mit 150 Prozent Auflösungsskalierung im Waldlevel Viadukt Regilino, das dank der durchs Geäst scheinenden Sonnenstrahlen besonders sehenswert ist. Über Ruckeln kann sich angesichts der Ergebnisse kaum jemand beschweren.


Grafikkarten-Rangliste 2018: Radeon- und Geforce-GPUs im Benchmarkvergleich - Teil 2
 
Zuletzt bearbeitet:
Können ihren Scheisss behalten, es sei denn die Preise gehen gewaltig runter.....oh wait wir sprechen ja hier von Nvidia :P.
Du hast dir vielleicht den Link angesehen, den ich gepostet habe von Computerbase - im Moment sind Vega und Co teils teurer als die Nvidia Karten. Muss ich das jetzt auch abschließen mit "oh wait, wir sprechen ja hier von AMD"?

Hier nochmal für dich: *hust* Grafikkarten-Rangliste 2018: GPU-Vergleich - ComputerBase
Nvidias Karten sind hier von Preis/Performance her AMD überlegen. Und Stromsparender. Und besserer Treibersupport. Und besserer Entwicklersupport. Im Moment hab selbst ich als AMD Only Käufer meine Probleme meine eigene Kaufstrategie zu rechtfertigen
 
Auch ein schönes Beispiel für DX12/Low-Level-API/Asynchronous Compute als praxisrelevanter "AMD Vorteil" in Spielen:

Die low-cost midrage GTX 1180 OC wird im Bereich der Titan V Hybrid OC landen, die 1180Ti OC als GT102 setzt sich davon nochmal ein gutes Stück ab.

Anhang anzeigen 997809

Titan V Hybrid Mod Results: 2GHz+ Clock Stability, Increased Efficiency | GamersNexus - Gaming PC Builds & Hardware Benchmarks







Grafikkarten-Rangliste 2018: Radeon- und Geforce-GPUs im Benchmarkvergleich - Teil 2

Ähm..ja.
Grafikkarten-Rangliste 2018: GPU-Vergleich - ComputerBase
 
Können ihren Scheisss behalten, es sei denn die Preise gehen gewaltig runter.....oh wait wir sprechen ja hier von Nvidia :P.

Naja, ne 1080 für 550€ passt schon, lediglich G-Sync ist teuer, macht dafür aber auch was her (Ob das jetzt den Aufpreis rechtfertigt, muss jeder selbst wissen.). Aber wenn man kein Adaptive Sync will (warum auch immer) passt eine 1080 schon. Die Karte ist schnell und reicht wohl noch für ne Weile. Bei der 1060 würd ich mir zwar wie bei der 580 zu dem Preis auch 8GB wünschen, aber ein schlechtes P/L-Verhältnis ham die Karten damit auch nicht.

Können ihren Scheiß behalten, es sei denn Treiber ,Leistung, und Stromverbrauch sind State of the Art

oh wait wir sprechen ja von AMD:lol:

Die AMD Treiber sind voll ok. Diese Treiber A ist besser als Treiber B Gehabe ist der absolute Quatsch. Nvidia hatte übrigens mehr GPU tötende Treiber als AMD z.B.. Nur mal so zur info. Aber bei dir heißt es vermutlich eh: "Lieber ne gegrillte Nvidia Karte als ne gute AMD Karte." nachdem du ja gerne offen zeigst wohin die Tendenz geht. Beide Hersteller hatten schon schlechte Treiber. So ist das nunmal. Mittlerweile ist es recht ausgeglichen.

1080 Leistung ist bis dato State of the Art. Selbst 1060 Leistung ist State of the Art. Wie schonmal gesagt. Keine Antwort auf eine 1080 ti zu haben heißt nicht, dass ganze Lineup ist schlecht. 1080ti Besitzer sind ein minimaler Anteil der Gamer. Wenn wir von der schnellsten GPU ausgehen ist eine 1080ti auch nicht State of the Art, es gibt ja die Titan V. Die findet aber sogar noch weniger Abnehmer.

Effizienz ist bei Nvidia besser, ja. Das alleine ist aber halt nicht für jeden ein Abschusskriterium.

Die Perfomance bei 1080 und Vega 64 ist wechselhaft bei beiden Kandidaten mal besser. Ich finde das immer witzig. Nach eurer Argumentation müssten sowohl die 1070 als auch die 1080 einfach unvertretbar ******* sein, nachdem ja alles unter ti Level keine Konkurrenz bedeutet.
 
Zuletzt bearbeitet:
Kommt und nennt sich Navi. Mit GDDR6 (ziemlich sicher) und HBM (wahrscheinlich, außer man verzichtet auf Highend-Varianten).

Mir reicht auch ein Vega Refresh in 7nm. Ich erwarte auch gar nicht, dass die Ti großartig übertrumpft wird, sondern dass die Effizienz besser wird. Gaming ist zwar auch wichtig, aber ich habe geplant, mich näher in GPU Computing einzuarbeiten. Vega bietet hier teilweise phänomenale Power...

Die AMD Treiber sind voll ok. Diese Treiber A ist besser als Treiber B Gehabe ist der absolute Quatsch. Nvidia hatte übrigens mehr GPU tötende Treiber als AMD z.B.. Nur mal so zur info. Aber bei dir heißt es vermutlich eh: "Lieber ne gegrillte Nvidia Karte als ne gute AMD Karte." nachdem du ja gerne offen zeigst wohin die Tendenz geht. Beide Hersteller hatten schon schlechte Treiber. So ist das nunmal. Mittlerweile ist es recht ausgeglichen.

Angeblich soll die Treiberarchitektur für die AMD GPUs einen CPU Overhead erzeugen, der die Gesamtleistung dadurch verringert. Ok ist was anderes...
 
Zuletzt bearbeitet von einem Moderator:
Mir reicht auch ein Vega Refresh in 7nm. Ich erwarte auch gar nicht, dass die Ti großartig übertrumpft wird, sondern dass die Effizienz besser wird. Gaming ist zwar auch wichtig, aber ich habe geplant, mich näher in GPU Computing einzuarbeiten. Vega bietet hier teilweise phänomenale Power...



Angeblich soll die Treiberarchitektur für die AMD GPUs einen CPU Overhead erzeugen, der die Gesamtleistung dadurch verringert. Ok ist was anderes...

DirectX 11 erzeugt CPU Overhead nachdem es sehr schlecht parallelisiert ist. Wenn man auf einen DirectX Context aus mehreren verschiedenen Threads zugreifen will, muss man einen Kernel Lock (Mutex oder ähnliches) und einen darauf folgenden Kontext Switch in kauf nehmen, wenn man das nächste mal auf die DirectX Device zugreift. Beides ist sau teuer.

AMD's Problem ist nicht etwa, dass der Treiber mist ist, sondern eher das AMD Karten mehr auf Parallele Workloads optimiert sind und damit besser "gefüttert" werden müssten, was aber unter DX11 schwer geht. deshalb gab es Mantle. AMD hat seine Architektur einfach nicht so gut auf DX11 ausgelegt (warum auch immer). DirectX 12/Vulkan/Mantle verringert ja CPU Overhead im generellen. Sprich AMD hat nicht per se ein Treiber Problem, sondern nur ein DirectX 11 Problem. DirectX 11 sollte eh endlich mal sterben. Dann müssten sich die Engine Entwickler endlich mal anständig mit ihrem DX 12/Vulkan Render Backend auseinandersetzen. Unity hat das zumindest schonmal einigermaßen auf die Reihe bekommen. Unreal nicht so wirklich.

Würde Unreal endlich mal nachziehen, gäbe es auch mehr Vulkan games. Die meisten Entwickler fassen das Render-Backend auch nur dann an wenn sie müssen.
 
Zuletzt bearbeitet:
@Mango2Go: Aber es sieht so aus, dass Nvidias Treiberarchitektur weniger Probleme mit CPU Overhead hat.
 
Zuletzt bearbeitet von einem Moderator:
@Mango2Go: Aber es sieht so aus, dass Nvidias Treiberarchitektur weniger Probleme mit CPU Overhead hat.

Nein, Nvidias GPU Architektur hat weniger Probleme mit DirectX 11. Das hat nicht's mit der Treiberarchitektur zu tun. Nvidia und AMD haben hardwaretechnisch 2 Ansätze für das gleiche Problem. Ein Beispiel.

Das AMD gut von Async Compute profitiert liegt daran das die Architektur gut Vorteile draus ziehen kann weil es der GPU beim Auslasten hilft. Nachfem die Architektur von Nvidia damit eh weniger Probleme hat, hat Nvidia im besten Falle wenig von Async Compute im schlimmsten Fall Nachteile.

Deshalb ist der CPU Overhead in DirectX 12 auch so runtergegangen. Da erlaubt der Standard einfach bessere Parallelisierung. In DirectX 11 wäre Async-Compute eine nicht standadisierte Erweiterung. Genau wie die Intrinsic-Funktionen die Nvidia verwendet um z.B. einiges von ihrem Gameworkscode umzusetzen. Das ist übrigens auch einer der Gründe warum AMD so schlecht damit klarkommt. Bei Nvidia geht Gameworks über Intrinsic Funktionen, bei AMD über den DirectX Standard. Würde man unter AMD auch einfach über Intrinsic Funktionen gehen wäre die DirectX 11 Performance auch besser, die Optimierung macht halt keiner. In Vulkan sind zumindest Shader Intrinsics jetzt im Standard.

Das bringt bessere Performance, bringt aber auch ab und an mal Probleme mit.

AMD hält sich bei DirectX 11 an den Standard während Nvidia das quasi selbst ummodelt und nur eine Schnittstelle bietet die sich ähnlich wie der Standard verhält. Sowas führt dann zu Nichtstandard-Verhalten wie die Grafikunterschiede zwischen AMD und Nvidia bei Ashes of the Singularity. (Da gab's ja mal diese tolle Diskussion).

Grade da du auch ein wenig über Programmierung zu wissen scheinst solltest du wissen das es sinnvoller ist sich an Standards zu halten, das ist nämlich auch der Grund warum Nvidia sich schwerer tut DirectX 12/Vulkan richtig nach zu ziehen was wiederum der Grund ist warum Nvidia so an DirectX 11 festhält. Nichtstandard-Code ist halt nicht portable.

Nvidia plant auch schon wieder Non-Standard-Erweiterungen bevor Features überhaupt erscheinen. Raytracing kommt gerade erst für DirectX 12 und Nvidia plant schon wieder Gameworks-Funktionen.

Long story short, AMD implementiert den DirectX Standard besser, Nvidia hat schnellere Treiber. Dafür muss man sich bei Nvidia halt auf viel Nicht-Standard-Verhalten verlassen was für Entwickler halt ******* ist. Oder man verwendet Gameworks... das ist idr. dann für Kunden *******.
 
Zuletzt bearbeitet:
Was hat man von DX12 wenn die Leistung runtergeht oder gleich bleibt ?

Es kommen Karten nach diesen Karten. Neue Features, auch bei Nvidia wird der CPU load verringert, sprich schwächere CPUs haben weniger Einfluss, Raytracing. Bessere Lighting Performance nachdem DirectX 12 mehr Lichtquellen unterstützt. Besseres Culling. Async Compute bringt der Titan V bessere Performance nachdem die Volta Architektur besser damit skaliert als Pascal und Maxwell, Explicit MultiGPU Support der anständige Multi-GPUs ermöglicht. Bessere Nutzung von parallelen Architekturen, nachdem es einfacher ist GPUs parallel zu bauen als immer den GPU takt zu erhöhen. Besseres Crossdeveloping mit Konsolen (zumindest mit Vulkan). Bessere CPU-Kern-Skalierung. Reicht das oder willst du mehr? Die Liste ist lang. Aber wer braucht das alles schon. Wäre ja hilfreich und würde allen was bringen.
 
Zuletzt bearbeitet:
Was hat man von DX12 wenn die Leistung runtergeht oder gleich bleibt ?

Was hat man von AA-Filtern, wenn die Leistung runtergeht... ;)

@Mango2Go: Nun ja, die Standards beziehen sich auf die Software, also auf den Treiber. Mir ist klar, dass AMD sich an die Standards hält, während Nvidia ihr eigenes Süppchen kocht. Das führt aber dazu, dass die Performance besser ist, weil u.a. der CPU Overhead geringer ist.
 
Ich hoffe mal auf eine GTX 1160 TI 8GB die bezahlbar ist (so um die 300€) und in etwa auf der Leistung der jetzigen GTX 1080 liegt. Damit wäre 4K auch mal für die breite Masse bezahlbar. Bisher hatte ich die 470, 660Ti, und nun eine 1050 Ti. Die Preise der großen Karten sind ja ungeheuerlich momentan. Mehr als 350€ werde ich nie ausgeben.
Zu billig. Nvidia ist nicht so blöd für 300€ ne Grafikkarte auf 1080-Niveau zu verkaufen. Die würde ja den meisten Leuten reichen und spottbillig sein.

Rechne mal 150€ oder eher 250€ drauf. Nvidia wird die nächsten Jahre weiterhin so gut es geht die Cashcow melken. :banane:
 
Was hat man von AA-Filtern, wenn die Leistung runtergeht... ;)

@Mango2Go: Nun ja, die Standards beziehen sich auf die Software, also auf den Treiber. Mir ist klar, dass AMD sich an die Standards hält, während Nvidia ihr eigenes Süppchen kocht. Das führt aber dazu, dass die Performance besser ist, weil u.a. der CPU Overhead geringer ist.

Ja, aber wie gesagt. Treiber werden um GPUs gebaut. Das ist ne Hardware-Sache ;) Würde AMD seine Grafik-Pipeline umbauen könnten sie einfacher den Treiber DX11 optimieren. Dafür würden sie ihre DirectX 12 Vorteile einbüßen. Wie gesagt. Du bekommst Spiele auch auf AMD so schnell und einfach wie bei Nvidia. AMD müsste nur ein eigenes Gameworks machen. Das würde dann halt Nvidias Performance gimpen. Daher würde es keiner nutzen. So muss man halt normal optimieren.
 
Zuletzt bearbeitet:
Ja, aber wie gesagt. Treiber werden um GPUs gebaut. Das ist ne Hardware-Sache ;) Würde AMD seine Grafik-Pipeline umbauen könnten sie einfacher den Treiber DX11 optimieren. Dafür würden sie ihre DirectX 12 Vorteile einbüßen. Wie gesagt. Du bekommst Spiele auch auf AMD so schnell und einfach wie bei Nvidia. AMD müsste nur ein eigenes Gameworks machen. Das würde dann halt Nvidias Performance gimpen. Daher würde es keiner nutzen. So muss man halt normal optimieren.

OK, und warum sind dann Nvidia Karten unter DirectX 12 um den gleichen Faktor schneller wie unter DirectX 11?
 
OK, und warum sind dann Nvidia Karten unter DirectX 12 um den gleichen Faktor schneller wie unter DirectX 11?

Sind sie nicht immer. Nvidia Karten werden in DirectX 12 ähnlich angesprochen wie in DirectX 11 (Also für Nvidia optimieren heißt in DirectX 12 die Schritte von DirectX 11 nachzumachen) Das passt ja auch so. Das Problem ist, für AMD wird das gleiche gemacht. In Vulkan games in denen die Architektur berücksichtigt wird schneiden AMD Karten recht gut ab. Ist ja nicht so als wäre DirectX 12/Vulkan ein Zaubermittel das automatisch die Performance verbessert. Man muss es halt entsprechend nutzen. Wenn aber die zur Verfügung stehenden Vulkan/DirectX 12 Mittel genutzt werden dann steigt die AMD Performance, die Nvidia Performance nicht zwingend.
Der Witz an ner Low-Level API ist das man zum Optimieren keine Intrinsic-Funktionen mehr brauchen sollte. Sprich Optimierung für A sind auch Optimierungen für B. Dadurch, dass für Nvidia immernoch ähnlich optimiert wird wie unter DirectX 11, schadet das wieder der AMD Performance weil die Karten quasi nicht nach Standard benutzt werden.
Die Art wie mit Nvidia DirectX genutzt wird, macht die Standard-Herangehensweise halt für die Tonne. Sowohl für AMD als auch für Nvidia ist in DX 12 im vergleich zu DX 11 luft nach oben.
Schönes Beispiel: Doom und Wolfenstein 2. Gut implementiert, läuft auf beifen Seiten auf fast jeder Kartoffel. Id hat sich wie es aussieht die Mühe gemacht nen snständigen Renderpfad für beide Hersteller zu machen.

Mit anderen Worten: Würde Nvidia was das angeht seinen Scheiß auf die Reihe bekommen hätten alle was davon.

Wenn Intel in den Markt tritt und ggf. gute Karten hat die mit einer Standard-Nahen DirectX Umsetzung daherkommen, könnte Nvidia das endlich mal auf die Füße fallen.

AMD Radeon RX Vega 56 8GB review - DX12: Sniper Elite 4

Da sind einige DirectX 12 Benchmarks dabei. Das Problem im Moment ist, dass das Know-How fehlt die APIs gescheit zu nutzen nachdem die Verbreitung imnernoch mit Handbremse läuft. Nvidia verliert ja öfter mal Performance unter den neuen APIs. Das ist ihrer Standard-Fernen Api und oft der schlechten Nutzung durch die Entwickler geschuldet. (Passiert für AMD ja auch)
Wenn man es allerdings richtig macht gewinnen Karten durchaus was.
 
Zuletzt bearbeitet:
Also eigentlich ist eine Programmierung unter Nutzung einer expliziten API aufwendiger, da man direkt die spezifische Hardware ansprechen muss. Unter DX11 kann man die Arbeit einfach den Treiber machen lassen (mit entsprechenden Folgen - positiv wie negativ).

Das Problem bei nV sehe ich eher darin, dass die veröffentlichte Dokumentation über ihre Hardware sehr zu wünschen übrig lässt, da sie ungern Informationen rausgeben. Somit ist häufig unklar, wie Dinge im Detail funktionieren und angesprochen werden müssen. Die Software Entwickler müssen also viel reverse engineering betreiben. Und das ist aufwendig.
 
Zuletzt bearbeitet:
Also eigentlich ist eine Programmierung unter Nutzung einer expliziten API aufwendiger, da man direkt die spezifische Hardware ansprechen muss. Unter DX11 kann man die Arbeit einfach den Treiber machen lassen (mit entsprechenden Folgen - positiv wie negativ).

Das Problem bei nV sehe ich eher darin, dass die veröffentlichte Dokumentation über ihre Hardware sehr zu wünschen übrig lässt, da sie ungern Informationen rausgeben. Somit ist häufig unklar, wie Dinge im Detail funktionieren und angesprochen werden müssen. Die Software Entwickler müssen also viel reverse engineering betreiben. Und das ist aufwendig.

Ich hab nie behauptet DX 12 wäre einfacher^^ Nur das man außer Shader Intrinsics keine Intrinsic Funktionen mehr brauchen sollte da die API eh low level ist. Intrinsic Funktionen sind ja nichts anderes als hardwarespezifische Funktionen. DirectX 11 ist klar einfacher. Aber Optimierungen für AMD und Nvidia gleichzeitig zu machen ist nicht so geil. Optimierungen für DirectX passieren nicht immer auf Treiberlevel. Drawcall Optimierung muss z.B. das Renderbackend machen.
 
Zuletzt bearbeitet:
Zurück