Müssen ja.. Aber man weiß nie. Zu 7970 Ghz Zeiten hatte AMD auch die schnellste Karte bis die Titan kam, aber die 680 kostete mehr als die 7970 Ghz (welche schneller war).
Nvidia hat einfach eine große Anzahl an Fanboys dahinter. AMD viel weniger. AMD kann nur über den Preis gehen, denn AMD wird als minderwertig angesehen.
hat sich jemand mal gefragt warum !?
Könnte es sein , das es an der Leistung bzw : An den Treiibern liegt ?
Nvidia hat auch Treiberprobleme...gekauft werden sie dennoch...
Ich gehe sogar soweit zu sagen das Nvidia jeden ihrer Kunden mit einem "**** you" beleidigen könnte, und es würden immer noch leute kaufen.
Als die 7970 erschien war sie deutlich schneller und auch günstiger als die gtx580, dennoch hat sich die Nvidia Karte blendend verkauft. Gefühlt müsste AMD das doppelte an Leistung bringen und das über einen längeren Zeitraum damit Nvidias Marketing und seine Fanboys keinen einfluss mehr auf die Kunden haben. Es geht manchmal sogar soweit das Kids meinen eine 660ti sei definitiv besser zum Spielen geigent als eine R9290 mit der begründung "Nvidia ist geil und AMD sucked" weil sie diesen Unsinn irgendwo gehört haben wollen.
Noch vor 2 Jahren war man froh wenn man fordernde Games a la Crysis 3 (max.) halbwegs flüssig in WQHD 2560x1440 spielen konnte - die Betonung liegt auf halbwegs!
Für UHD ist mehr als eine Verdoppelung dieser Leistung nötig - so schnell geht es halt nicht
hat sich jemand mal gefragt warum !?
Könnte es sein , das es an der Leistung bzw : An den Treiibern liegt ?
@JoM79: Wie meinen? Bereits von 1080p (~2,07 MPixel) auf 1440p (~3,69 MPixel) werden ~78% mehr Pixel dargestellt; die Karten müssen entsprechend mehr berechnen und benötigen neben der reinen Leistung i.d.R. auch mehr Videospeicher etc. Die Steigerung von 1440p auf 2160p (8,3 MPixel) liegt bei ~125% der dargestellten Pixel. Darum ist 2160p auch so ein Grafikkartenkiller, von 5K3K (~14,75 MPixel) oder 8K (~33,2 MPixel) brauchen wir gar nicht erst reden.Von 1080p auf 2160p ist also deutlich mehr als nur die doppelte Power nötig, nicht von 1080p x2 = 2160p verleiten lassen.
![]()
Daher scheitert aktuell auch noch eine Titan X in vielen neueren Spielen an UHD, das wird bei der 980 Ti nicht besser werden (im Gegenteil). "Flüssiges" UHD mit einer SGPU erwarte ich erst ab 2016, jedoch auch nur im Enthusiasten-Segment.
@JoM79: Wie meinen? Bereits von 1080p (~2,07 MPixel) auf 1440p (~3,69 MPixel) werden ~78% mehr Pixel dargestellt; die Karten müssen entsprechend mehr berechnen und benötigen neben der reinen Leistung i.d.R. auch mehr Videospeicher etc. Die Steigerung von 1440p auf 2160p (8,3 MPixel) liegt bei ~125% der dargestellten Pixel. Darum ist 2160p auch so ein Grafikkartenkiller, von 5K3K (~14,75 MPixel) oder 8K (~33,2 MPixel) brauchen wir gar nicht erst reden.Von 1080p auf 2160p ist also deutlich mehr als nur die doppelte Power nötig, nicht von 1080p x2 = 2160p verleiten lassen.
![]()
Logischerweise ist die reine Pixellast nicht 1:1 umsetzbar. Wenn man bspw. den PCGH-Benchmark-Parcours betrachtet, dann sind knapp 50% der FPS in 2160p im Vergleich zu 1080p die absolute Ausnahme (wie oben erwähnt). Die Regel sind ca. ~33%. Wie gesagt, variiert von Spiel zu Spiel und Architektur zu Architektur - GM200 stellt jedoch in UHD i.d.R. ca. ein Drittel der FPS von FHD dar. Das wird also in den allermeisten Fällen auch für die 980 Ti gelten - man bräuchte also in der Mehrheit der Spiele die dreifache Leistung aktueller (Enthusiast-/High-End-)SGPUs um vergleichbare FPS-Werte wie in 1080p zu erzielen.Guck die lieber mal Spiele Benchmarks an, zB hier
The Witcher 3 im Technik-Test: CPU und GPU-Benchmarks
Da hast du in 1080p mit ner GTX 980 avg ca 49fps und in 2160p avg ca 24fps.
Also knapp die Hälfte.
Du kannst nicht von der Anzahl der Pixel auf die Leistung schliessen, da zB die Texturen im Spiel trotzdem gleich bleiben.
Logischerweise ist die reine Pixellast nicht 1:1 umsetzbar. Wenn man bspw. den PCGH-Benchmark-Parcours betrachtet, dann sind knapp 50% der FPS in 2160p im Vergleich zu 1080p die absolute Ausnahme (wie oben erwähnt). Die Regel sind ca. ~33%. Wie gesagt, variiert von Spiel zu Spiel und Architektur zu Architektur - GM200 stellt jedoch in UHD i.d.R. ca. ein Drittel der FPS von FHD dar. Das wird also in den allermeisten Fällen auch für die 980 Ti gelten - man bräuchte also in der Mehrheit der Spiele die dreifache Leistung aktueller (Enthusiast-/High-End-)SGPUs um vergleichbare FPS-Werte wie in 1080p zu erzielen.
Also laut steam survey - und das ist angesammelt die größte DICHTE (wo wir schon bei Auflösungen sind) an Gamer Hardsare Übersicht - spielen:
1920 x 1080 = 34.62%
1366 x 768 =26.28%
1600 x 900 =7.42%
1440 x 900= 5.25%
Wenn man die ganzen Mischauflösungen dazuaddiert und die Multi Desktops mal separat betrachtet, spielen 95 % der auf 1080p Monitoren.
Die Diskussionen, die man in den Foren liest, sind absurd. Downsampling bzw 2K oder 4K ist derzeit eine absolute Nische, und die derzeitigen Preise für die High End GPUs werden das nicht ändern.
Ich bin vor 6 Monaten auf 27 Zoll und 1440p nativ umgestiegen und damit das "eine Prozent". Ich habe einen technik-- und spieleaffinen Freundeskreis, und da beginnt der Umsteig auf 1440p gerade erst.
Ich konnte feststellen, dass selbst mit 970 SLI (entspricht dem, was eine single TitanX an fps leistet) unter 1440p bei GTA V, Project Cars und Witcher 3 nicht immer die 60 fps gehalten werden können, wenn absolut alles maximiert ist, inklusive Multisampling/Antialiasing.
Wir sprechen also von rund 700 Euro Minimalinvest für stabile 50 bis 60 fps unter 1440p, bei kommenden Titel, WENN man denn die Regler für alle Schatten-, PostFX- , AA-Effekte und die Feautres (Tesselation, hairworks blabla) am Anschlag haben möchte bzw 1000 Euro für eine SIngle GPU Lösung, weil die single 980 das auch nicht mehr packt jenseits 1080p, die 290X ebenfalls nicht.
DIe 980ti bringt nun knapp TitanX Leistung wie es aussieht, die kann also zumindest als SIngle GPU ebenfalls die 60 fps bei 1440p anpeilen.
Enthusiasten/Freaks/Nerds wie ich wollen aber mehr fps als es single GPUs leisten können, dann bleibt nur CF oder SLI. Ich bin derzeit auf "grün" umgestiegen und finde 980TI SLI "futureproof" für 1440p. Nochmal 40-60% fps mehr bedeutet bis auf Weiteres rund 80-140 frames, je nach Spiel derzeit und demnächst, wenn man die TitanX SLI Werte als Referenz nimmt.
Ich hoffe, AMD bietet in diesem Segment etwas an. Unter 1080p ist das alles ohne Zweifel entspannter, und wie gesagt, die Adaption beginnt erst langsam. Es wird nicht jeder 2300 Euro (minus der Summe, die ich für die beiden 970er noch erhalte) binnen 7 Monaten für GPUs ausgeben können, aber ich bin auch nicht der Maßstab. Ich wollte diese Auflösungsdebatte mal etwas entzaubern.
Denn wenn es nach 4K geht, muss das Gesamtsystem das stemmen.
Bleibt zu hoffen, dass AMD eine Karte raushaut, die genau diesen Umstieg von 1080p auf 1440p (also von 23 und 24 Zoll auf 27) befeuert, idealerweise mit mehr fps und für etwas weniger Euro als eine 980TI. Die wird der Maßstab sein für die 390X, nicht die 980 und nicht die TitanX.
Aber das ist nur meine Meinung![]()
Also für 1080p reicht eine 970 oder 290x dicke.Kurze Frage : sollte ich zwei 970er kaufen oder eine 980ti? Auflösung 1080p
Auch zu der Zeit hatte AMD im wahrsten Sinne des Wortes die schlechteren Karten. Zu Release war die 7970 im Schnitt zwar etwas schneller als die 580. Kurze Zeit später erschien jedoch die 680, die weniger Energie verbraucht, (bei Release) günstiger und auch noch schneller war. Erst Monate später wurde die 7970 günstiger und danach irgendwann kam der AMD "Wundertreiber", der im Endeffekt die Frametimes und die FPS verbessert hat. Danach stand die 7970 besser da als die 680, aber das war etwa ein Jahr nach Release der 680 - aus meiner Sicht zu spät. Den gleichen Fehler sollten sie sich mit der kommenden Generation besser nicht leisten.Müssen ja.. Aber man weiß nie. Zu 7970 Ghz Zeiten hatte AMD auch die schnellste Karte bis die Titan kam, aber die 680 kostete mehr als die 7970 Ghz (welche schneller war).