Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

Die Intel iGPU ist derzeit die "modernste" GPU schlechthin, mit dem größten dxFL. Da kann man belächslen was nVidia und AMD da veranstalten und an irhen proprietären Zeugs umherfeilen.

AMD ist die Effizienz im Desktopsegment jedenfalls seit der 79701GHzE völlig verloren gegangen. Glaube Intel wollte keine wirkliche APU.
1. Modern ist da ein ziemlich wertloser Begriff. Schließlich sollte es ein Leichtes (im Rahmen der generellen Herausforderungen dieser Arbeit) sein, eine Crap-GPU zu bauen, die dafür alle Features unterstützt. Des weiteren (unwichtig für die Argumentationmeine ich mich zu erinnern, dass Vega nun das weit fortgeschrittenste FL hat.
2. Dass Intels Interesse eine Gaming-APU zu bauen eher gering ist, ja, davon würde ich auch ausgehen. Der letzte Versuch klar in diese Richtung, der 6770HQ, war ja dann auch ein ziemlicher Flop, übrigens abermals in erster Linie bei der Effizienz. Wenn CPU+dGPU effizienter sind als eine APU, dann liegt ordentlich was im Argen...
3. Seit der 7970GHZ ist Quatsch, die R9 Nano war ein Effizienzking, in meinen Augen so oder so die beste Graka der zweiten 28nm-Gen. (vernünftig konfiguriert, technischer Fortschritt liegt einem quasi auf der Handfläche, spät aber dann immerhin sinnvoll bepreist, zumindest mal ein ganz ordentliches RefDesign, dank FreeSync unterm Strich ein sehr guter Deal)
4. Auch Intels Architektur ist keine offene GPU-Architektur, daher weiß ich nicht, was du mit ihrem proprietären Zeugs umherfeilen meinst.
Kannst du das belegen? Alles was ich immer dazu gefunden hab', egal obs Video Transcoding oder Verbrauch pro FPS ist, war hervorragend.

Wenn ich Alien Isolation gestartet hab auf der 530, dann hat das ungefähr 5 Watt höhren Verbrauch erzeugt, als wenn ich nur die CPU in dem Ausmaß ausgelastet hab.
Die CPU ist ein wenig, die iGPU viel schneller - Intel Core i7-6700K im Test: Skylake ist Intels beste Plattform - Golem.de
 
Die Intel iGPU ist derzeit die "modernste" GPU schlechthin, mit dem fortschrittlichsten DX-FL.
Modern und leistungsfähig ist meistens nicht in einem Chip vereint. Integrierte GPUs sind an eine CPU gebunden. Vollwerige Grafikkarten kann man mit der CPU kombinieren die man will. Schon die Einsatzgebiete sind grundverschieden. Von daher ist es Wurst was Intel fabriziert wenn sich nichtmal annähernd an die Leistung von Grafikkarten herankommen. Andersrum ist es einem Officenutzer auch egal was AMD und vNidia rausbringt, wenn seine integrierte GPU für die anstehenden Aufgaben ausreicht.
 
1. Modern ist da ein ziemlich wertloser Begriff. Schließlich sollte es ein Leichtes (im Rahmen der generellen Herausforderungen dieser Arbeit) sein, eine Crap-GPU zu bauen, die dafür alle Features unterstützt. Des weiteren (unwichtig für die Argumentationmeine ich mich zu erinnern, dass Vega nun das weit fortgeschrittenste FL hat.
Ist nur leider keine Crap-GPU. Ich hab damit wesentlich weniger Probleme als mit der dedizierten 7970 oder der 6870.
2. Dass Intels Interesse eine Gaming-APU zu bauen eher gering ist, ja, davon würde ich auch ausgehen. Der letzte Versuch klar in diese Richtung, der 6770HQ, war ja dann auch ein ziemlicher Flop, übrigens abermals in erster Linie bei der Effizienz. Wenn CPU+dGPU effizienter sind als eine APU, dann liegt ordentlich was im Argen...
Das kannst du sicher auch belegen. Der Verbrauch tanzte in meiner Erinnerung nicht aus der Reihe, aber man hatte die schnellste iGPU, schneller als der Spezialist, der sein Geld mit GPUs verdient, während das bei Intel nur eine kleinstabteilung ist.
3. Seit der 7970GHZ ist Quatsch, die R9 Nano war ein Effizienzking, in meinen Augen so oder so die beste Graka der zweiten 28nm-Gen. (vernünftig konfiguriert, technischer Fortschritt liegt einem quasi auf der Handfläche, spät aber dann immerhin sinnvoll bepreist, zumindest mal ein ganz ordentliches RefDesign, dank FreeSync unterm Strich ein sehr guter Deal)
Ist das dein ernst? Ein 600mm² Monsterchip der runtergetaktet und gevoltet ist, ist selbstverständlich effizienter als ein hochgetakteter 300mm² Chip. Aber das ist keine Errungenschaft, das kann jeder. Nimm deine GPU und untertakte/volte. Oh sie hat immer noch ähnliche FPS, aber braucht wesentlich weniger. Welch Effizienzwunder.
Die Nano hatte sonst absolut nichts für sich sprechendes, drum hat man halt die Effizienz.
Wie hoch war die Leistung im Vergleich zur 600mm² Konkurrenz? Eben, nicht hoch genug, deshalb musste man eine andere Lücke finden.
Was genau wilst du mir damit sagen?
 
Ob das stimmt, hm lass mich überlegen, nein. Intel unterstütze seit 2015 FL 12.1, was AMD gerade eben geschafft hat (auch wenn sie einen proprietären Switch/Fallback für Entwickler boten).

Die Nano war anfänglich viel zu teuer, so wie alle Fiji Karten und so wie alle V....und an das Spulengewine oder Diegefiepe möchte ich echt nicht erinnert werden. War wie Lottospielen.
Zu 1.: Und wo gehst du da auf das ein, was ich geschrieben habe? :schief:
Zu 3.: Ja, leider. Aber Spulenfiepen gab es zu der Zeit aus für mich nicht nachvollziehbaren Gründen auch bei Nvidia in ordentlicher Masse. Wieso ist das den beiden passiert?
 
Ist nur leider keine Crap-GPU. Ich hab damit wesentlich weniger Probleme als mit der dedizierten 7970 oder der 6870.

Das kannst du sicher auch belegen. Der Verbrauch tanzte in meiner Erinnerung nicht aus der Reihe, aber man hatte die schnellste iGPU, schneller als der Spezialist, der sein Geld mit GPUs verdient, während das bei Intel nur eine kleinstabteilung ist.

Ist das dein ernst? Ein 600mm² Monsterchip der runtergetaktet und gevoltet ist, ist selbstverständlich effizienter als ein hochgetakteter 300mm² Chip. Aber das ist keine Errungenschaft, das kann jeder. Nimm deine GPU und untertakte/volte. Oh sie hat immer noch ähnliche FPS, aber braucht wesentlich weniger. Welch Effizienzwunder.
Die Nano hatte sonst absolut nichts für sich sprechendes, drum hat man halt die Effizienz.
Wie hoch war die Leistung im Vergleich zur 600mm² Konkurrenz? Eben, nicht hoch genug, deshalb musste man eine andere Lücke finden.

Was genau wilst du mir damit sagen?
1. Das war ein Gedankenspiel: Du kannst ohne weiteres eine Crap-GPU bauen, die alles an FL unterstützt. Das ist nicht schwierig. Schwierig ist es, eine mit allen FL zu bauen, die darüber hinaus auch wirklich gut ist.
2. Test Intel Skull Canyon NUC6i7KYK - Notebookcheck.com Tests Das 960m-System ist um Welten effizienter.
3. Ja, natürlich ist das mein Ernst, beste Karte, nicht bester Chip oder beste Architektur.
4. Die fünf Bilder unten, eines davon zeigt die Leistungsaufnahme, Rest die Performance.
kosten sparen. hatten alle 1080er z.B.
Ja, aber das Thema kam so plötzlich und massiv auf. Das war bei keinen Grakas der Jahre davor ein Thema. Hatte mal ein P505 mit 980m zur Ansicht hier, das hat vielleicht gefiept---die 1080 gerade übrigens gar nicht.
 
1. Das war ein Gedankenspiel: Du kannst ohne weiteres eine Crap-GPU bauen, die alles an FL unterstützt. Das ist nicht schwierig. Schwierig ist es, eine mit allen FL zu bauen, die darüber hinaus auch wirklich gut ist.
2. Test Intel Skull Canyon NUC6i7KYK - Notebookcheck.com Tests Das 960m-System ist um Welten effizienter.
3. Ja, natürlich ist das mein Ernst, beste Karte, nicht bester Chip oder beste Architektur.
4. Die fünf Bilder unten, eines davon zeigt die Leistungsaufnahme, Rest die Performance.
Ja, aber das Thema kam so plötzlich und massiv auf. Das war bei keinen Grakas der Jahre davor ein Thema. Hatte mal ein P505 mit 980m zur Ansicht hier, das hat vielleicht gefiept---die 1080 gerade übrigens gar nicht.
2) der von mir verlinkte Toms Artikel zeigt, dass AMDs APUs genauso ineffizient sind, wenn nicht sogar ineffizienter. Der 5775 ist deutlich schneller als die AMD APUs und dennoch braucht er gleich viel energie. Die Aussage, dass Intels iGPUs per se ineffizient sind stimmen also nicht
3) das ist halbwegs absurd, weil man jede Karte so konfigurieren kann. Toms Hardware hat auch eine 1060 ohne großen Performanceverlust auf 75 Watt betrieben. Man kann eine Titan Xp so untertakten, dass sie eine höhere Effizienz hat wie Nano.
Außerdem führst du dann dein Nano Argument ad absurdum, denn du behauptest Intels iGPUs sind per se ineffizient, und es gibt sicher Konfigurationen wo sie super effizient ist.

Wenn solltest du wenigstens die gleiche CPU als Basis nehmen.
Irgendwie beschleicht mich das Gefühl, dass du entweder nicht wirklich ernsthaft Effizienz vergleichen möchtest, oder es einfach wirklich nicht verstehst.

Das Skull Canyon NUC braucht im Idlebetrieb und unter Gaming-Last mehr Strom als Notebooks mit ULV-CPUs. U
Na das ist aber jetzt eine UNGLAUBLICHE Überraschung
Zumal da das Gesamtsystem getestet wurde und dort offenbar eine andere Konfiguration vorliegt, schließlich braucht das NUC schon allein beim Ideln 2x so viel. Da müsste dir auch klar sein, dass da was anderes schuld dran ist, als der Prozessor und die iGPU.
 
Zuletzt bearbeitet:
1
Ja, aber das Thema kam so plötzlich und massiv auf. Das war bei keinen Grakas der Jahre davor ein Thema. Hatte mal ein P505 mit 980m zur Ansicht hier, das hat vielleicht gefiept---die 1080 gerade übrigens gar nicht.
Naja ich finde das gut:
Ich bin höchst empfindlich auf Spulenfiepen und kann das gar nicht ertragen. Ich bin froh, dass da drauf geachtet wird, und ich bin erschüttert, dass daran nicht mehr gearbeitet wird.
 
das mit den Dx lvl feature Sets ist MS schuld
2014 hieß es noch dx11 wäre die letzte directx Version
Anfang 2015 während der preview haben sie dx12 vorgestellt
für win 8,1 dann dx11,3 mit den Neuerungen ohne hardware Entlastung der CPU
dann wurde es konfus weil verschiedene feature lvl ankündigt wurden
zuerst hieß es
dx12 dx12,1 dx12,2
dann dx12 dx12 ftl1 dx12 ftl2, dx12 ftl3
Um es dann noch mehr komplexer zu sagen kam endlich die finalen specs
dx12,0
dx12,0 ftl11
dx12 ftl10
dx12 ftl9
dx12,1
nvidia hat irrtümlich einfach dx12,1 angegeben was nicht stimmt.
amd kann dx12 mit hardwareentlastung an cpu nur blöd das amd gerade da erst zu nvidia Leistung aufholt und nicht überholt
der Grund ist das dx12 quasi an amd gcn angepasst wurde
Auf dx11,3 warte ich bis heute noch.
eine api entwickelt man nicht in einen Jahr
2013 hat keiner gewusst ob überhaupt noch einen neuere api kommt.
amd Tatsachen mit mantle hat dann dx12 Entwicklung bewirkt.
ohne diese opensource api hätte MS keine Neuerungen gebracht zumal win 10 damals erst entschieden wurde
Das aufgeben von win8 führte zu win 10
Diese Entscheidung kam 2013 mit den win 8,1
Und nur nach 1 Jahr danach kündigt man win 10 an.
Von dx12 war da keine Rede, es sollte das cloud OS gepuscht werden.
ich habe 2011 gesagt zu Aktionär Präsentation von MS für die Zukunft von MS das der Ansatz alles per cloud und Vermietung von Software hin ein großes Problem wird. Dann dazu das Konzept von win 8
ich hatte damals die preview geholt und nach nur einer Stunde wieder runter so sehr war ich genervt von dem Konzept. ich habe wegen diesen Konzept gewarnt das MS vollen zugriff auf den PC bekommt das man leicht durch nicht nutzen von MS @live@hotmail@outlook aussperren kann.
Und dann musste ich echt googlen wie ich den Rechner ausstellen kann.
Dann kam ruhe hinein bis MS win 10 Ankündigte und die preview davon aug spt 2014 ich war begeistert habe deswegen win 8,1 gekauft weil ich davon überzeugt war.Auch weil MS versprach das man von Win 8,1 kostenlos upgraden kann.
Und dann kam die agb
Seitdem bin ich extrem enttäuscht wohin MS gehen will. nebenbei ist win 8,1 echt gut.
 
2) der von mir verlinkte Toms Artikel zeigt, dass AMDs APUs genauso ineffizient sind, wenn nicht sogar ineffizienter. Der 5775 ist deutlich schneller als die AMD APUs und dennoch braucht er gleich viel energie. Die Aussage, dass Intels iGPUs per se ineffizient sind stimmen also nicht
3) das ist halbwegs absurd, weil man jede Karte so konfigurieren kann. Toms Hardware hat auch eine 1060 ohne großen Performanceverlust auf 75 Watt betrieben. Man kann eine Titan Xp so untertakten, dass sie eine höhere Effizienz hat wie Nano.
Außerdem führst du dann dein Nano Argument ad absurdum, denn du behauptest Intels iGPUs sind per se ineffizient, und es gibt sicher Konfigurationen wo sie super effizient ist.

Genauso wie du eine ULV CPU + GPU vergleichst mit einer eben wesentlich höher getakteten/gevolteten CPU, das macht keinen Sinn. Wenn solltest du wenigstens die gleiche CPU als Basis nehmen.
Irgendwie beschleicht mich das Gefühl, dass du entweder nicht wirklich ernsthaft Effizienz vergleichen möchtest, oder es einfach wirklich nicht verstehst.
Naja, irgendwie werden halt Grafikkarten so bewertet, wie sie ankommen, oder? Ansonsten wären viele der AMD-CPUs und Grakas der letzten Jahre ja auch viel besser gewesen, waren sie doch bekannt dafür mit tendentiell zu viel Volt und generell abseits des Sweetspots betrieben zu werden.
Ein Artikel von THG ist nicht dabei, meinst du den Golem? Da braucht der 5775 deutlich mehr...

Die APUs sind beides Notebook-APUs, einmal halt Notebook-APU im Notebook (6700HQ) und einmal im NUC(6770HQ). Die gleiche APU kann man nicht als Basis nehmen, weil es so ein System nicht gibt. Allgemein sind die APU-Effizienz-Tests nicht leicht, weshalb ich ja auch die gesamte Zeit schon schwammige Begriffe verwende. Die Grundrichtung ist aber klar: Intel hätte dank der Fertigung und der Geldmittel völlig davonrennen können müssen, sprich in jedem Testszenario überlegen sein, in einer anderen Liga spielen müssen. Das haben sie nicht hinbekommen, statt dessen haben sie des öfteren verloren.
 
Die Intel Iris Pro mit dem teurem eDRAM hat sich gar nicht so schlecht geschlagen.
Intel hätte da aber noch viel mehr Geld reinpumpen müssen bei quasi nicht vorhandener Nachfrage.
 
Wenn du mich nach einem Effizienzwunder von AMD fragst, ist es für mich die HD7950, die auch seiner Zeit die wahre Wollmilchsau beim OC war. Die lief nämlich ohne weiteres mit 1250MHz (ohne Modbios, mit sogar drüber), bei 875-925 Herstellertakt und verbrauchte kaum über 200W bei solchen Taktraten. Die fiept im übrigen kein bisschen und läuft bei mir unter Wasser noch völlig problemlos.
Soweit geht der Effizienzbegriff auseinander :)
Effizienz = Leistung pro Watt.
Man müsste jetzt schauen was mehr Performance pro Watt liefert. Die runtergevoltete/Taktete Nano oder eben die 7950.
Fest steht jedoch, dass der Gewinner nicht an Maxwell oder Pascal vorbeikommt. Schließlich haben die Maxwell/Pascal Karten schon höhere FPS bei niedrigerem Verbrauch, wohin die Reise geht ist klar, wenn man jetzt einen Effizienzwettbewerb machen möchte.

Die Nano hat halt 2 große Vorteile: ein riesen Chip. Da kriegt man aus 1 Ghz halt schon die Leistung wie aus einem 300mm² Chip @ 2 Ghz. Somit ist der Verbrauchsvorteil schnell mal klar, bei dennoch hohen FPS. Schließlich sind ja viele Hardwareeinheiten vorhanden.

Und der zweite Vorteil ist natürlich, dass man HBM hatte. Was deutlich weniger Strom frisst als hochtegtaktetes GDDR5. Dazu kommt halt 4 vs 6 GB bei der TItan/Ti.

2013 hat keiner gewusst ob überhaupt noch einen neuere api kommt.
amd Tatsachen mit mantle hat dann dx12 Entwicklung bewirkt.
Natürlich wurde weiter an APIs entwickelt. Die Zeit bleibt nicht stehen, das war damals schon auch klar.
ohne diese opensource api hätte MS keine Neuerungen gebracht zumal win 10 damals erst entschieden wurde
Hätte vielleicht nicht schnell-schnell DX12 gebracht, aber natürlich hätte man eine neue API bringen müssen früher oder später.


ich habe 2011 gesagt zu Aktionär Präsentation von MS für die Zukunft von MS das der Ansatz alles per cloud und Vermietung von Software hin ein großes Problem wird. Dann dazu das Konzept von win 8
Und dennoch ist es derzeit Microsofts größter Gewinnbringer. Gut, dass du kein Hellseher geworden bist :D
ich hatte damals die preview geholt und nach nur einer Stunde wieder runter so sehr war ich genervt von dem Konzept. ich habe wegen diesen Konzept gewarnt das MS vollen zugriff auf den PC bekommt das man leicht durch nicht nutzen von MS @live@hotmail@outlook aussperren kann.
Und dann musste ich echt googlen wie ich den Rechner ausstellen kann.
Dann kam ruhe hinein bis MS win 10 Ankündigte und die preview davon aug spt 2014 ich war begeistert habe deswegen win 8,1 gekauft weil ich davon überzeugt war.Auch weil MS versprach das man von Win 8,1 kostenlos upgraden kann.
Und dann kam die agb
Seitdem bin ich extrem enttäuscht wohin MS gehen will. nebenbei ist win 8,1 echt gut.
Ab diesem Punkt hab' ich keine Ahnung mehr von was du schreibst. Kannst du bitte Sinnvolle Absätze machen und Satzbau?

Ein Artikel von THG ist nicht dabei, meinst du den Golem? Da braucht der 5775 deutlich mehr... /QUOTE]
Ich bin wohl schon müde, arbeite seit der Früh und "chatte" hier nebenbei.
Leistungsaufnahme und Temperaturentwicklung - Intel Core i5-6600K und i7-6700K: Skylake feiert sein Debut

das hab ich gemeint.

Die APUs sind beides Notebook-APUs, einmal halt Notebook-APU im Notebook (6700HQ) und einmal im NUC(6770HQ). Die gleiche APU kann man nicht als Basis nehmen, weil es so ein System nicht gibt. Allgemein sind die APU-Effizienz-Tests nicht leicht, weshalb ich ja auch die gesamte Zeit schon schwammige Begriffe verwende. Die Grundrichtung ist aber klar: Intel hätte dank der Fertigung und der Geldmittel völlig davonrennen können müssen, sprich in jedem Testszenario überlegen sein, in einer anderen Liga spielen müssen. Das haben sie nicht hinbekommen, statt dessen haben sie des öfteren verloren.
Ich habe immer wieder gesehen, wie Intel mit wesentlich geringerem Verbrauch ähnliche FPS hinzaubert.
Von daher kann das mit der Effizienz per se nicht stimmen.
Das zweite was nicht stimmt ist, dass man bei den Geldmitteln davonlaufen hätte müssen.
Denn erstens hat Intels GPU Abteilung nur ganz geringes Budget, und zweitens ist AMD die Firma die mit Grafikkarten aller Art ihr Geld verdient, Entwicklerkontakte hat, seit Jahrzehnten in dem Business ist. Das einzige was also peinlich wäre ist, wenn ein CPU Riese daherkommt und sagt "hmm, GPUs bauen, das kann jeder" und AMD schlagen würde.

Allerdings würde ich durchaus gerne eine Intel GPU in freier Wildbahn sehen, wie du sagst mit dem besseren Fertigungsprozess. Aber bei der Chronisch unterbesetzten Treiberarbteilung für Spiele ist das ein hoffnungsloses Unterfangen. Auch wenn man derzeit sicher mehr brillieren würde, wie das seit 2012 stillstehende AMD.
Die Intel Iris Pro mit dem teurem eDRAM hat sich gar nicht so schlecht geschlagen.
Intel hätte da aber noch viel mehr Geld reinpumpen müssen bei quasi nicht vorhandener Nachfrage.
Die Leistung hat AMD sogar zu Zittern gebracht
Broadwell: Iris Pro Graphics 6200 Gaming Results

Dennoch ist die Frage: wer braucht sowas?
Der einzige echte Vorteil war der 128mb L4 Cache.
 
Zuletzt bearbeitet von einem Moderator:
Ich hab echt keine Ahnung, weshalb es immer der neueste Trend bei den Displays sein muss...
Ja, wir sind im "Enthusiasten" Forum.
Aber:
Es gibt aktuell eh kaum genug Leistung für 4k.

"UHD kommt in den Mainstream..."
Pustekuchen...
Der Großteil der Spieler ist bei 1080p und kleiner unterwegs.
Bis UHD auch nur irgendwie wirklich relevant wird, sind wir bei 8k PC Displays.

Wenn ich schlicht ein "because I can" Update machen würde, käm bei mir eine Vega 64 Liquid Edition rein.
Das wäre sogar die erste Karte, die hauptsächlich nach Aussehen gekauft würde.
Dazu ein kleiner TR (M.2 und anderes sind mir egal... aber möglichst viele USB Anschlüsse und 8 SATA Ports sind da schon eher ein Muss.)
Passend dazu noch 32GB RAM.
Dann ein neues Gehäuse mit ordentlich Platz (Full Tower).
Für "because I can" Displays müsste ich aber noch warten.. 3x 24" und 1x 19" sind grad die Kapazitätsgrenze unserer Computerecke.

Dann das ganze noch verdoppeln, da meine Frau eben auch sehr gern zockt.

Und ja, wir reden hier nicht über sinnvolle Updates, sondern because I can.

Wenn ich im Bereich "Sinnvoll" bleibe, gibt es neue Grafikkarten, sobald die alten abrauchen, denn sie sind für unsere Zwecke vollkommen OK.
Neue Displays gibt es auch erst, sobald einer der aktuellen Monitore den "magic smoke" nicht mehr halten kann.

Ja, ich weiß.. ich bin altmodisch.. mein Fernseher ist aktuell auch schon 9 Jahre alt, hat allerdings schon ein local dimming backlight und full HD.
Für ein "Upgrade" hat sich seitdem viel zu wenig getan.

Ähnliches gilt in meinen Augen auch für UHD am PC.
In Standbildern merkt man es, aber bei Bewegtbildern eher kaum.
Hand aufs Herz: Wer bleibt in einem Spiel mal lang genug stehen, um den Unterschied wirklich zu genießen?
Wer kompetitiv spielt, reduziert eher Details, als auf Maximum zu spielen - vor allem, wenn Vegetation nur bei hohen Details eingeblendet wird und so die Sicht einschränkt.
Auch geringere Auflösungen helfen da eher, als UHD, um ein Ziel zu finden.
Rennspiele sind auch zu schnell, als dass man UHD wirklich würdigen könnte - und am Streckenrand stehen eh low res "Zuschauer".
Civilization Spielern wie mir geht es eher um die Reduzierung der Rechenzeiten zwischen den Runden. Die Runde selbst kann ruhig mit 30 fps laufen. Das merkt man bei dem Spiel kaum.
Anno, Cities Skylines und ähnliche Spiele knabbern auch eher am CPU Limit, als an der GPU.

Was ist also *DAS* Verkaufsargument für UHD?
Sind wir dank Nvidias Technik jetzt bei "Ich hab den schönsten Screenshot" angekommen?
Aber das Tool kann eh wahnwitzige Auflösungen erstellen, ohne dass das Spiel auch wirklich damit laufen muss.

Der nächste, wirkliche, Immersionssprung klappt dann wohl doch erst mit der nächsten Generation von VR Headsets.
Project Cars VR, X: Rebirth VR und ein, zwei andere zeigen schon erste, zögerliche Ausblicke.

Alles andere ist aus meiner Sicht nur Marketing Bla bla mit wenig wirklicher Substanz dahinter.
Navi und Nvidias Volta Nachfolger haben die Chance, diesen Sprung zu begleiten... alles davor wird schlicht überfordert sein, mehr als die doppel-1080p für ein VR Headset zu liefern.
 
Seinerzeit war die 7950 ungeschlagen (imo), was aber auch zeigt das AMD nur die reinen Gewinne aus verbesserten Fertigungsverfahren weitergab und den eigenen Effizienzvorsätzen eigentlich schuldig blieb. Vega ist vermutlich der neuste Beweis dafür und nicht der Erste, man erinnere sich an Hawaii wo AMD mit der Brechstange an nVidia vorbei musste.
Achso du meinst die 3 Monate bevor Nvidia auch mit 28nm Kam. Jetzt versteh ichs :)
Soviele Ressourcen, Zeit und Energie bei einem Referenzdesign zu verschwenden, wenn man davon allesamt eigentlich nichts hat, ist schon verwunderlich.
Ironischerweise fordere ich seit Jahren bessere Referenzdesigns
1) sind es letztlich die Designs auf denen dann die ersten Herstellerkarten basieren
2) übt ein gutes Referenzdesign auch Druck auf die Hersteller aus
3) der Ersteindruck ist das allerwichtigste. Jedes Review das man nachschlägt ist am Launchtag gemacht worden. Da machen sich alle interessierten ihren Eindruck über die Karte. Was danach kommt interessiert niemanden mehr.
Wenn also jetzt eine Referenzkarte laut und heiß ist, und außerdem ständig sich runtertaktet, dann ist das nunmal negative Presse.
Das Blingbling hilft wenig, das stimmt, außer für Referenzkartenkäufer.
Süß sind sie ja schon irgendwie.

Als "vermeintlicher" Enthusiast steht man wenn man AMD kaufen will, jedenfalls ziemlich blöd da. 50% höheres Taktverhalten bei Vega als bei Fiji und die daraus eigentlich resultierende Leistung verpufft im Nirvana. Dabei verbrennt die Karte auch noch reichlich Energie. Dauert ja nicht mehr lange dann haben wir Gewissheit.
Was konkret man 5 Jahre lang an dieser Karte Entwickelt haben will weiß ich nicht. DIe Leistung ist jedenfalls enttäuschend. In Hinblich auf Chipfläche, HBM, Verbrauch aber auch auf den geringen Fortschritt gegenüber Fiji. 50% höherer Takt, deutlich mehr Transistoren (auch ca 50%) und dennoch... wo ist die Leistung? Es ist nach Fiji und Polaris die nächste große Enttäuschung
 
Die Leistung hat AMD sogar zu Zittern gebracht
Broadwell: Iris Pro Graphics 6200 Gaming Results

Dennoch ist die Frage: wer braucht sowas?
Der einzige echte Vorteil war der 128mb L4 Cache.

Der Stromverbrauch ist für die Leistung Wahnsinn. Die Leistung ist nah an eine Geforce 750 gekommen und damit die Vorgängerarchitektur von den aktuellen Nvidia-Karten.

Was konkret man 5 Jahre lang an dieser Karte Entwickelt haben will weiß ich nicht. DIe Leistung ist jedenfalls enttäuschend. In Hinblich auf Chipfläche, HBM, Verbrauch aber auch auf den geringen Fortschritt gegenüber Fiji. 50% höherer Takt, deutlich mehr Transistoren (auch ca 50%) und dennoch... wo ist die Leistung? Es ist nach Fiji und Polaris die nächste große Enttäuschung

Auf dem Papier müsste die RX480 zwischen einer Geforce 1060 und 1070 liegen. Ich habe keine Ahnung was AMD treibt. In der Hinsicht läuft einiges falsch.
 
Der Stromverbrauch ist für die Leistung Wahnsinn. Die Leistung ist nah an eine Geforce 750 gekommen und damit die Vorgängerarchitektur von den aktuellen Nvidia-Karten.
Auch in meinen Augen sind die iGPUs sofern sie auf Spiele treffen wo die Treiber funktionieren super effizient und schnell. Hier Leistet Intel nämlich gewaltiges für diese kleinen Chips. Und mit dem eDRAM hat man effektiv den Flaschenhals zum DDR3 umgangen.
Ich hätte so gern einen QuickSync Test gesehen :(

Es bleibt leider dennoch die Frage: wer braucht eine flotte, effiziente iGPU im Prozessor wirklich? Das sind echt nur Laptop User.
Der Vergleich mit der 750 ist übrigens super, weil die 750 seinerzeit die effizienteste Desktopkkarte war. Die erste Maxwell.



Auf dem Papier müsste die RX480 zwischen einer Geforce 1060 und 1070 liegen. Ich habe keine Ahnung was AMD treibt. In der Hinsicht läuft einiges falsch.
Und schon Fury wie auch Vega über der Titan. Ja, da läuft einiges falsch, AMD kriegt die Leistung nicht auf die Straße. Mal schauen was sich da noch tut. Ich warte seit der Vorstellung von GCN 1.0 drauf...
Ich glaube sie haben die Bottlenecks die Fiji plagen nicht beseitigt sondern einfach neue GCN Feature implementiert die eher dem professionellen Markt passen.
Kann gut sein. Es gibt ja genug theoretische Leistung, aber dass man diese Bottlencks nicht nach all den Jahren endlich beseitigt hat wundert mich. Es wirkt, als wäre man einfach überfordert.
 
Ich habe deine Aussage doch versucht richtig zu stellen und ja ich schrieb von Fortschrittlichkeit beim DX-FL und bin dann nicht darauf eingegangen? [...]
Da versuchen eben beide genannten mit Tricks die Levelvorgaben zu umgehen.
[...]
Tun AMD und Nvidia nicht.
Seit Maxwell v2 hat Nvidia die DX12 FL12_1 Funktionalität unterstützt, AMD erst ab GCN Gen 5 (Vega).
Niemand von beiden stellt(e) einen "proprietären Fallback" für Entwickler bereit, um Levelvorgaben zu umgehen.

das mit den Dx lvl feature Sets ist MS schuld
2014 hieß es noch dx11 wäre die letzte directx Version
Anfang 2015 während der preview haben sie dx12 vorgestellt
für win 8,1 dann dx11,3 mit den Neuerungen ohne hardware Entlastung der CPU
dann wurde es konfus weil verschiedene feature lvl ankündigt wurden
zuerst hieß es
dx12 dx12,1 dx12,2
dann dx12 dx12 ftl1 dx12 ftl2, dx12 ftl3
Um es dann noch mehr komplexer zu sagen kam endlich die finalen specs
dx12,0
dx12,0 ftl11
dx12 ftl10
dx12 ftl9
dx12,1
nvidia hat irrtümlich einfach dx12,1 angegeben was nicht stimmt.
amd kann dx12 mit hardwareentlastung an cpu nur blöd das amd gerade da erst zu nvidia Leistung aufholt und nicht überholt
der Grund ist das dx12 quasi an amd gcn angepasst wurde
Auf dx11,3 warte ich bis heute noch.
[...]
Es gab nur die Behauptung von AMD, dass kein DX12 kommen würde, Microsoft hat offiziell nur erwidert, dass man gewiss an DX weiter arbeitet.
Bei DX12 und DX11. 3 gab es eine lange Zeit keine Auflösung, ob diese auch für ältere Betriebssysteme kommen, bis dann klar wurde, dass beide W10 exklusiv sind.
Du wartest nicht bis Heute auf DX11.3, dass gibt es seit Windows 10, es gibt auch schon seit dem Creatos Update DX11.4:
Direct3D 11.4 Features (Windows)

Es wurden zuerst zwei FLs präsentiert, FL12_0 und FL12_1.
Darunter hat man FL11_0 und FL11_1, vier FLs insgesamt.


Unter DX12 gibt es kein FL9 oder FL10 mehr.
The DirectX 12 API only goes down to feature level 11_0
Hardware Feature Levels (Windows)


[...]
Was konkret man 5 Jahre lang an dieser Karte Entwickelt haben will weiß ich nicht. DIe Leistung ist jedenfalls enttäuschend. In Hinblich auf Chipfläche, HBM, Verbrauch aber auch auf den geringen Fortschritt gegenüber Fiji. 50% höherer Takt, deutlich mehr Transistoren (auch ca 50%) und dennoch... wo ist die Leistung? Es ist nach Fiji und Polaris die nächste große Enttäuschung
Man sieht eindeutig was sie gemacht haben (Pixel Front-End/Back-End, HBCC, verbesserte Geometrie-Pipeline), man erkennt leider auch, dass die Softwareabteilung massiv hinterher hinkt.
 
DX ist eine Ansammlung an unterschiedlichen APIs und die übergreifende Grafikschnittstelle Direct3D bietet viele Features an, wovon auch einige optional sind.
DX11.4 kann theoretisch jede DX11.0 GPU unterstützen, solange der Hardwarehersteller passende Treiber bereitstellt, aber natürlich werden nicht alle Features unterstützt.
DX12 wird ebenfalls von sehr alter Hardware unterstützt, wie Intels Haswell Generation oder sogar Fermi von Nvidia, nur eben mit deutlich geringerem Funktionsumfang.
 
Der Artikel zur Frage "Karte für UHD?" und ähnlichen Themen ist nach wie vor nicht online, man wird ihn also immer noch nicht bewerten und kommentieren können, aber ich verlinke ihn mal trotzdem: Die traurige Wahrheit zu Grafikkarten, Auflosungen und Framerates

Daneben enthält dein Posting aber ja auch noch weitere Fragen, nämlich "warum immer bessere Displays" und "was ist das Argument für UHD"?

Warum immer bessere Displays? Weil alles, was wir bisher hatten, ziemlicher Murks ist. Weil Displays nunmal das Tor in die virtuellen Welten darstellen. Weil Komfort bei Arbeiten und Zocken eben etwas ist, was man nicht auf der Straße liegen lassen sollte, wenn man ihn auch mitnehmen kann. Wieso ist alles bisher ziemlicher Murks?
Blickwinkelinstabil, kontrastarm, Farbabweichungen, so geringe Pixeldichte, dass man das Pixelraster sehen kann, trotzdem langsam (Verwischeffekte). In jedem Punkt ist etwas im Argen, bei den eindeutig konvergenten Technologien (Maus, Tastatur, Gehäuse, Netzteil, Sound, Display) sind wir nirgendwo so weit vom Grenzwert weg wie bei den Displays. Und trotzdem fragen, wieso immer bessere Displays? :D

Was ist das Argument für UHD?
Aus UHD auf der gleichen Diagonale wie FHD folgt die doppelte Pixeldichte. Was für ein wahnsinniger Unterschied das ist, selbst wenn man die Auflösung selber gar nicht berechnet, sondern nur das Bild mit NeigherestNeighbour hochskaliert, kannst du hier sehen: https://forums.geforce.com/default/...aling-at-integer-ratios/post/4632537/#4632537
Sprich, endlich sieht man die Panelstruktur bzw. die Nebeneffekte nicht mehr oder zumindest nur noch in sehr viel selteneren Fällen. So, das war jetzt aber nur, wenn man die Auflösung gar nicht nutzt. Das Paradebeispiel für viel AntiAliasing und Auflösung genutzt ist Textdarstellung. Textdarstellung in hohen Auflösungen ist ein Traum, denn ein viel größer Anteil der Buchstaben hat dann wirklich die Farbe, die er eigentlich haben sollte (AntiAliasing, so schön es auch ist, hat ja ein andere Farbe um den Auge eine bessere Darstellung vorzugaukeln) Der Großteil von schwarzen Buchstaben ist dann wirklich Schwarz UND die Schrift ist gleichzeitig schön geschwungen. Ein Genuss für das Auge, ein wahnsinniger Fortschritt bei der täglichen Arbeit vor dem Bildschirm.
Text kommt auch in Spielen vor. Besonders textlastige Spiele wie PlanescapeTorment (das in der EnhancedEdition auch---im Gegensatz zu den anderen EnhancedEditions von Beamdog---wirklich ausgezeichnet auf UHD vorbereitet ist) oder der Nachfolger im Geiste Torment: Tides of Numenera lassen sich dadurch dann natürlich auch viel besser genießen. Die Lücke zwischen Buch, LCD und ePaper wird zumindest ein kleines, kleines bisschen geschlossen, im Rahmen des Möglichen halt.
Mittlerweile haben auch viele Entwickler kapiert, dass sie HighRes mitnehmen sollten und Neuerscheinungen nutzen auch die Möglichkeiten ganz gut aus.
So, ich habe jetzt immer noch gar nicht über das 3D-Rendering gesprochen. Das profitiert natürlich auch, vor allen Dingen die Punkte AntiAliasing und Effekte. Gerade die LastGen war ja mit zweifelhaften Unschärfeeffekten en Masse und schlechtem AntiAliasing geplagt. Beides wird besser, wenn man einfach Auflösung spammed. Wenn die Unschärfe einfach mal auf beiden Achsen doppelt so genau berechnet wird, lassen die negativen Nebeneffekte nach und man kann endlich verstehen, wieso die Devs sich dafür entschieden haben---naja, manchmal. Und AntiAliasing, ich meine, AntiAliasing. Das ist einfach eine Wucht. 8xSGSSAA auf einem FHD vs. einem UHD, da liegen nochmal Welten dazwischen. 2xSGSSAA in UHD sieht anders, aber oft sogar schon besser aus als 8xSGSSAA auf FHD---und beides benötigt gleich viel Performance!
Ich hoffe, ich konnte ein wenig mehr klar machen, wieso UHD eher schon lange überfällig denn ein nutzloser Hype ist, wieso es den Alltag verbessern und die Spieleerfahrung fantastischer machen kann. Dass es durchaus etwas für Fans von Klassikern, sogar für Fans von PixelArt sein kann, so merkwürdig das auch klingen mag. Es gibt natürlich noch viel mehr, Vorteile beim Zooming, Vorteile bei Skalierung allgemein, auch Rastergrafiken in höherer Auflösung als das Panel profitieren natürlich noch ein bisschen und so weiter. Aber das wäre vielleicht ein wenig ermüdend.



Praktischer Kaufhinweis: Es gibt einige gute UHD 24-Zöller mit FreeSync von LG und Samsung. Warte aber vielleicht noch was, bis die auf FreeSync 2 & DP 1.4 upgedated werden---wann das der Fall sein wird, das kann ich dir aber leider nicht sagen. Eigentlich habe ich gehofft, dass das schon längst der Fall gewesen wäre, dass auch schon längst diese beiden Monitore erschienen wären und so weiter...
...auch HighRefreshRate hätte mir übrigens sehr am Herzen gelegen, würde dies doch auch "laggigen" Titel der LastGen auf die Sprünge helfen können. Oder auch den Titeln der frühen 2000er würde es sehr gut tun. Ich zocke halt auch gerne mal was älteres...
 
Zurück