Nvidia Geforce 2018: Neue Grafikkarten sollen als GTX 1100 erscheinen

Wow, so kann man alles verdrehen. RESPEKT!

Man muss etwas weiter zrück gehen um die Preise zu verstehen.

Um das Jahr 2008/2009 haben sich beide Hersteller extreme Preisschlachten geboten. Dort gabe es den größten Chip im Protfolio für ein Appel und ein Ei.
4780 bzw 280 für 200€. Das wäre also so, als würde es eine GTX1080Ti mit nierigem Takt für 250€ geben.
GeForce GTX 285 im Test: Nvidia mit sinnvollem Upgrade der schnellsten Grafikkarte (Seite 25) - ComputerBase

Es stand jedoch für die Hersteller fest, dass zwischen einzelnen Fertigungsfortschritten immer mehr Zeit vergeht. Und Grafikkarten profitieren hiervon nunmal am meisten, da sie nahezu linear mit weiteren Einheiten skalieren. Der harte Wettbwerb, die geringen Leistungssprünge und rückläufigen Stückzahlen führen sogar zu Verlusten bei beiden Herstellern. Es musste also zwangsläufig etwas passieren.
nVidia Geschaftsergebnisse Q4/2012: nVidia trotzt dem Negativ-Trend | 3DCenter.org


Die 5870 als erste DX11 Grafikkarte kam dann zwar zu einem höheren Preis, war jedoch ein halbes Jahr früher auf dem Markt und die erste Grafikkarte im neuen 40nm Prozess. Nvidia war mit der GTX480/GTX470 nicht nur massiv später dran, sondern hatte auch das deutlich ineffizientere Produkt. AMD hat also doppelt bei der Preisfindung daneben gegriffen.
GeForce GTX 470 im Test: Nvidias neue „Kleine“ ist besser als der grosse Bruder (Seite 24) - ComputerBase

Mit der 7970 präsentierte AMD nicht nur eine neue Architektur. Die 7970 war von der Chipfläche und Ausstattung von Beginn an als gehoben zu bezeichnen. Selbst der Releasepreis für 500€ war jedoch Rückblickend mehr als fair. Zudem wollte AMD nicht den gleichen Fehler 2x begehen und den Preis falsch festlegen. Nachträglich anpassen kann man immernoch und AMD konnte ja nicht wissen ob Nvidia wieder Probleme bei einem neuen Fertigungsprozess hat.

Nvidia präsentierte dann 3 Monate später ihren Chip. Dieser hatte weniger VRAM konnte jedoch mit hohen Taktraten gut mitahlten, weshalb sich Nvidia entschied den gleichen Preis abzrufen. Also eine Chipklasse höher zuverkaufen als ursprünglich geplant.

Die Titan1 brodelt bereits in der Gerüchteküche, kam jedoch 1 Jahr und 3 Moante nach der 7970 auf den Markt. Die GTX780 sogar noch später. Nach ein paar Jahren positionierte sich die 7970 jedoch auf Augenhöhe mit GTX780 und teilweise sogar der 3x so teuren Titan, obwohl die 7970 OC mit der GTX670 preislich konkurierte.
AMD Radeon HD 7970 GHz Edition im Test: Mit aller Macht an die Spitze (Seite 13) - ComputerBase
Nvidia GeForce GTX 770 im Test: Asus, Gainward und Nvidia im Vergleich (Seite 13) - ComputerBase

Ein paar Monate lag gab es sogar das Never Settle Bundle mit Tripple AAA Spielen die es bis heute in der Form zu keiner Grafikkarte mehr dazu gab.
http://www.pcgameshardware.de/AMD-R.../News/Never-Settle-Reloaded-Level-Up-1069902/

Auch bei der 290 bot AMD das bessere Gesamtpaket. Mehr Leistung und VRAM. Gerade die 290 dreht heute Kreise um die GTX780.
https://www.computerbase.de/2013-11/amd-radeon-r9-290-test/11/

Das Gegenstück zur GTX970 war die 390 mit sogar mehr als 100% mehr VRAM. 3,5GB vs 8GB + etwas mehr Performance.
https://www.computerbase.de/2015-08...karten-von-r7-360-bis-r9-390x-im-vergleich/8/

Und jetzt kommt das eigentlich interessante an der Geschichte. Zusammenfassend lässt sich sagen: Der Markt funktioniert schon lange nicht mehr.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2017

Zu Zeiten der GTX480 kam Nvidia trotz ineffizienter Architektur und verspätetem Release auf einen Marktanteil von 60%.
2012 musste AMD dagegen mit der 7970 schon 50% mehr VRAM und mehr Leistung liefern (7970vsGTX670) + 3 Tripple AAA Spiele um überhaupt die 40% zu halten!
Auch die 290 bot mehr Leistung und 33% mehr VRAM. Und selbst der Skandal um die GTX970 interessierte die User kaum. Da halfen auch keine 8GB. 75% Marktanteil für nvidia.

Wie man sieht bot AMD abseits des Topmodells immer mehr Leistung oder VRAM fürs gleiche Geld. Den Markt scheint das aber nicht zu interessieren. Dabei war vielles vorhersehbar. Neue Architekturen werden mehre Jahre verwendet. GCN ist da ein gutes Beispiel. Das bei einem so großen Architekturbruch Leistung brach liegt ist normal. Auch der VRAM Anstieg war durch die Konsolen vorhersehbar. Das wurde aber von den Hardwaretestern sowie Usern ignoriert.

Wenn AMD aktuell lieber an Miner verkauft kann man ihnen das noch nichteinmal übel nehmen. Der Gamer nutz AMD doch sowieso nur um seine nvidia günstiger zu kaufen. Egal ob da am Ende der VRAM oder das DX-Featureset nicht der Verpakungsangabe entspricht. Denn nvidia spielt mit sehr schmutzigen Kartentricks und den Gamer scheint das nicht zu interessieren. Warum sollte sich also AMD aktuell für den Gamer interessieren?

https://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html
https://www.heise.de/newsticker/meldung/DirectX-11-1-Hat-Nvidia-bewusst-getrickst-1755457.html
https://www.3dcenter.org/news/nvidi...fikkarten-hersteller-zur-nvidia-exklusivitaet
https://www.3dcenter.org/news/msi-entfernt-amd-grafikkarten-aus-seinem-gaming-brand

Schöner Kommentar :daumen:
 
@Gecko

290X dreht heute kreise um 780Ti ? Sry, aber das ist schwachsinn !
Das die GTX680 einbricht ist doch wirklich kein Wunder, finde es noch relativ gut wie die Karte mit ihren 2GB Vram performed ! 2Gb VRAM waren einfach zu wenig, da stimme ich zu. Das bricht der karte das genick in neueren Spielen.
Ich bin mir relativ sicher das alle neueren Games deutlich mehr als 2GB VRAM verbrauchen, daher die ergebnisse. Es gibt nunmal massive Framedrops bzw hohe Spikes wenn der VRAM überläuft.

FURY
GeForce GTX 1070 FCAT Frametime Analysis Review - DX12: FCAT Frame Experience Analysis Rise Of The Tomb Raider
GeForce GTX 1070 FCAT Frametime Analysis Review - DX12: FCAT Frame Experience Analysis Hitman 2016
GeForce GTX 1070 FCAT Frametime Analysis Review - DX12: FCAT Frame Experience Analysis Ashes Of Singularity

Ich finde man sollte bedenken das NV bei eine karte wie GTX780TI den Takt um ca. 200MHZ zu niedrig angesetzt hat und 200MHZ sind viel, ja ! GK110 aka GTX780/TI waren Übertaktungsmonster.
290X lies sich nicht ansatzweise so OC wie GK110 ! Das vergessen hier viele.

Die 780TiOC gegen 290XOC !
...meistens wird AMD geschlagen. Es kommt natürlich aufs Spiel an und wieviel VRAM verbraucht wird.

Battlefield 1
YouTube
Mass Effect Andromeda
YouTube
Far Cry Primal
YouTube
Witcher 3
YouTube
Rise of the Tomb Raider
YouTube
Shadow Warrior 2
https://youtu.be/RF1lXRJP8NU?t=957
GTA5
https://youtu.be/RF1lXRJP8NU?t=1141

in 6 von 7 Spielen gewinnt die ASUS DC2 780TI (FullHD)
Das ist ein re-test der 2017 gemacht wurde.

Jeder sollte wissen wie sich die 780TI übertakten liess. Mit dem takt ging hier NV viel zu sanft um bzw. setzte in viel zu niedrig an.
Wahrscheinlich damit der stromverbruach nicht in die höhe schiesst.

Die GHZ edition taktete mit 1228MHZ. Die referenz ging auf 850-900mhz runter bei last. Das sind WELTEN !

....hier kannst du sehen was in der 780TI steckt !

Gigabyte Geforce GTX 780 Ti GHz Edition im Hands-on-Test: Die schnellste Single-GPU-Karte der Welt

Das ist ein immenser Unterschied, nur leider wird die GHZ-ED nicht von vielen magazinen getestet und selbst hand anlegen konnte man selbstverständich auch noch.

290x (OClimit) vs 780TI (OC limit) und das Spiel dreht sich komplett (NICHT IN ALLEN TITELN!!!!!)
NV hat damals einfach zu sehr auf die Leistungsaufnahme geschaut.

Der "einzige" grosse vorteil waren die 4GB Vram der 290X. Das kann in hardwarefressenden Spielen die einen enormen V-Ram bedarf haben zu framedrops führen. 4GB reissen heute aber auch nichts mehr wie man an der FuryX sieht.
Ein COD schaufelt in FullHD seit drei jahren 6-8
Ich finde das sagt schon alles.

Wie gesagt dies war der einzige Vorteil der 290x

Warum vergleichst eigentlich nicht furyx mit 980ti, hmm ? Ich kann es mir denken.

Ganz einfach: Die Fury X war 2015 als Konkurrenz zur GTX 980 Ti konzipiert. Und gegen diese sieht sie, vor allem wegen des geringen Speichers, seit dem fast nie Land. Stattdessen schlägt sie sich mit übertakteten Varianten der GTX 980 und GTX 1060 6GB herum.MfG,
Raff

Link:
Far Cry 5 flüssig auf Radeon R9 280X: Das Wunder von Tahiti im Video
 
Zuletzt bearbeitet:
@Gecko

290X dreht heute kreise um 780Ti ? Sry, aber das ist schwachsinn !
Das die GTX680 einbricht ist doch wirklich kein Wunder, finde es noch relativ gut wie die Karte mit ihren 2GB Vram performed ! 2Gb VRAM waren einfach zu wenig, da stimme ich zu. Das bricht der karte das genick in neueren Spielen.
Ich bin mir relativ sicher das alle neueren Games deutlich mehr als 2GB VRAM verbrauchen, daher die ergebnisse. Es gibt nunmal massive Framedrops bzw hohe Spikes wenn der VRAM überläuft.

FURY
GeForce GTX 1070 FCAT Frametime Analysis Review - DX12: FCAT Frame Experience Analysis Rise Of The Tomb Raider
GeForce GTX 1070 FCAT Frametime Analysis Review - DX12: FCAT Frame Experience Analysis Hitman 2016
GeForce GTX 1070 FCAT Frametime Analysis Review - DX12: FCAT Frame Experience Analysis Ashes Of Singularity

Ich finde man sollte bedenken das NV bei eine karte wie GTX780TI den Takt um ca. 200MHZ zu niedrig angesetzt hat und 200MHZ sind viel, ja ! GK110 aka GTX780/TI waren Übertaktungsmonster.
290X lies sich nicht ansatzweise so OC wie GK110 ! Das vergessen hier viele.

Die 780TiOC gegen 290XOC !
...meistens wird AMD geschlagen. Es kommt natürlich aufs Spiel an und wieviel VRAM verbraucht wird.

Battlefield 1
YouTube
Mass Effect Andromeda
YouTube
Far Cry Primal
YouTube
Witcher 3
YouTube
Rise of the Tomb Raider
YouTube
Shadow Warrior 2
https://youtu.be/RF1lXRJP8NU?t=957
GTA5
https://youtu.be/RF1lXRJP8NU?t=1141

in 6 von 7 Spielen gewinnt die ASUS DC2 780TI (FullHD)
Das ist ein re-test der 2017 gemacht wurde.

Jeder sollte wissen wie sich die 780TI übertakten liess. Mit dem takt ging hier NV viel zu sanft um bzw. setzte in viel zu niedrig an.
Wahrscheinlich damit der stromverbruach nicht in die höhe schiesst.

Die GHZ edition taktete mit 1228MHZ. Die referenz ging auf 850-900mhz runter bei last. Das sind WELTEN !

....hier kannst du sehen was in der 780TI steckt !

Gigabyte Geforce GTX 780 Ti GHz Edition im Hands-on-Test: Die schnellste Single-GPU-Karte der Welt

Das ist ein immenser Unterschied, nur leider wird die GHZ-ED nicht von vielen magazinen getestet und selbst hand anlegen konnte man selbstverständich auch noch.

290x (OClimit) vs 780TI (OC limit) und das Spiel dreht sich komplett (NICHT IN ALLEN TITELN!!!!!)
NV hat damals einfach zu sehr auf die Leistungsaufnahme geschaut.

Der "einzige" grosse vorteil waren die 4GB Vram der 290X. Das kann in hardwarefressenden Spielen die einen enormen V-Ram bedarf haben zu framedrops führen. 4GB reissen heute aber auch nichts mehr wie man an der FuryX sieht.
Ein COD schaufelt in FullHD seit drei jahren 6-8
Ich finde das sagt schon alles.

Wie gesagt dies war der einzige Vorteil der 290x

Warum vergleichst eigentlich nicht furyx mit 980ti, hmm ? Ich kann es mir denken.



Link:
Far Cry 5 flüssig auf Radeon R9 280X: Das Wunder von Tahiti im Video

Der Fehler in deiner gesamten Betrachtung liegt darin, dass du die falschen Karten miteinander vergleichst.

Bereits zum Release positionierte Nvidia die GTX780Ti klar über der 290x. Die 290x war preislich der GTX780 non-Ti gegenübergestellt.

Releasepreise. Teilweise UVP.
https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/11/

spätere Straßenpreise:
https://www.computerbase.de/2014-08...usgabe/6/#abschnitt_preisleistungsverhaeltnis

Um es mal deutlicher zu machen: Für eine GTX780Ti bekam man 1,75 Stück AMD290. Also fast ein Crossfire.
Die AMD390 entspricht bis auf den Speicher fast einer 290X. Diese ist in Farcry5 25% schneller und hat 33% mehr VRAM als die GTX780 non-Ti bei gleichem Preispunkt. Zudem taktet die Karte von PCGH sehr hoch. 1030MHz. Standard waren 860Basis und 900 MHz Boost. Die 290x hat dagegen praktisch Refrenztakt. Also etwa 30% mehr Performance + 33% mehr VRAM. Reicht das nicht?
:huh:

Hier wird leider nur die GTX780Ti mit der 290x verglichen. Ist aber ein ansonsten guter revisited Test und keine Youtube Videos mit 4k Klicks... Aber nun kennst du ja die damaligen Preise und die wirklichen Gegenspieler. :devil:
https://babeltechreviews.com/nvidia-forgotten-kepler-gtx-780-ti-vs-290x-revisited/


 
Zuletzt bearbeitet:
Hier wird leider nur die GTX780Ti mit der 290x verglichen. Ist aber ein ansonsten guter revisited Test und keine Youtube Videos mit 4k Klicks... Aber nun kennst du ja die damaligen Preise und die wirklichen Gegenspieler. :devil:
Has Nvidia Forgotten Kepler? The GTX 780 Ti vs. the 290X Revisited - BabelTechReviews

Ganz genau, leider wurde die referenz-karte genommen. F:A:I:L ! Der test hat überhaupt keine aussagekraft !
Du hast meinen Post überhaupt nicht verstanden bzw. worum es mir geht, hier liegt das problem !

Ich wollte damit nur sagen das ein gutes CUSTOM-Modell wie die Gigabyte GHZ EDI die 1228MHZ in Spielen hält, heute noch in den allermeisten spielen gegen 290X gewinnt. Vielleicht nicht unbedingt in den aktuellsten wo 6-8GB zum Früstück verspeist werden aber PC gaming besteht es nicht seit gestern !

Jeder wusste damals wie göttlich sich die GTX780TI overclocken liess im vergleich zu 290x. Das war der direkte KONKURRENT !
Diese beiden karten vergleiche ich !
Referenz interessierte bzw. interessiert so gut wie keine sau und wieviel potenzial GTX780Ti hat bzw. hatte sollte sich eigentlich in den letzten jahren rumgesprochen haben ?

PCGH schrieb:
Bei der GV-N78TGHZ-3GD, so die genaue Produktbezeichnung, handelt es sich um die mit Abstand schnellste Version der Geforce GTX 780 Ti: Der Hersteller Gigabyte garantiert einen Basistakt von 1.085 MHz, was einem 24-prozentigen Plus gegenüber der Referenz (876 MHz) entspricht

24% !!!!! OUT OF THE BOX !

Gigabyte Geforce GTX 780 Ti GHz Edition im Hands-on-Test: Die schnellste Single-GPU-Karte der Welt

Was ist eigentlich mit der FURYX und 980TI ?!
Der direkte konkurrent der später rausgekommen ist und heute absolut kein Land sieht. Mit der meinung stehe ich im übrigen nicht alleine da !

PCGH_Raff schrieb:
PCGH_Raff Beitrag
Ganz einfach: Die Fury X war 2015 als Konkurrenz zur GTX 980 Ti konzipiert. Und gegen diese sieht sie, vor allem wegen des geringen Speichers, seit dem fast nie Land. Stattdessen schlägt sie sich mit übertakteten Varianten der GTX 980 und GTX 1060 6GB herum.MfG,
Raff

...und RAFF hat wohl ein bisschen mehr ahnung von der Materie als Du, lol.
Warum gehst du auf diese karten nicht ein, deutlich neuer und somit auch deutlich interessanter.

Findest du nicht ?

KLARTEXT
:
Ich habe verstanden, du magst NV nicht ! Ich mag AMD nicht, belassen wir es einfach dabei OK ?


Das AMD ihre Karten seit 7970GHZ praktisch immer am Limit betreibt ist dir wahrscheinlich auch noch nicht aufgefallen oder glaubst du immer noch an den OVERCLOCKERS DREAM (Fury)
Falls ja, mein beileid. lol
 
Zuletzt bearbeitet:
Wie bereits geschrieben: Der preisliche Konkurent der 290X war die GTX780 non-TI. Irgendwelche OC Modelle, welche deutlich teurer sind spielen da keine Rolle.

Die von dir erwähnte Gigabyte GHz Edition war knapp 40% teurer als die 290X. Da ist es ja löblich, dass diese Nvidia-Karte noch gut mit der 290X mithält, nur schade, dass Sie am Ende trotzdem immernoch weniger VRAM hat. Preise sind dem Test hier bei PCGH zu entnehmen:
Gigabyte Geforce GTX 780 Ti GHz Edition im Hands-on-Test: Die schnellste Single-GPU-Karte der Welt

Die FuryX ist ein Thema für sich. Die Karte habe ich selbst nie empfohlen. (Muss man immer erwähnen)
Die technische Limitierung von HBM1 auf 4GB war ein dickes Problem, aber es war eine richtungsweisende und notwendige Entscheidung für AMD um Erfahrung mit HBM zu sammeln. Das wird man spätestens sehen wenn CPUs mit HBM kommen. ;)

Der Karte fehlte einfach irgend ein Feature um den VRAM flexibel im Notfall zu erweitern. Sowas ähnliches wie HBCC. :ugly:
AMDs HBCC-Feature kann (in der richtigen Situation) bis zu 70% Mehrperformance bringen | 3DCenter.org
Die Fury non-X war noch am interessantesten. Sie positionierte sich preislich und leistungstechnisch zwischen GTX980 und GTX980Ti. Interessant war sie aber letztendlich nur, weil die GTX980 auch nur maue 4GB zu bieten hatte.

RAFFs Kompetenz prangere ich hier nirgends an. Seine Aussage ist ja auch kein Widerspruch. Aber am besten nicht vöttern.

Wobei ich hätte da was:
Wie wäre es wenn Ihr einmal eine Meinung vom Kartellamt zum aktuellen Partnerprogramm einholt und das Ergebnis auf der Homepage veröffentlicht.
Nicht das man in 2 Jahren nur noch Nvidias last-gen vs Nvidias new-gen in Tests zu lesen bekommt. ;)
nVidias "GeForce Partner Program" drangt Grafikkarten-Hersteller zur nVidia-Exklusivitat | 3DCenter.org
 
Zuletzt bearbeitet:
Wie bereits geschrieben: Der preisliche Konkurent der 290X war die GTX780 non-TI. Irgendwelche OC Modelle, welche deutlich teurer sind spielen da keine Rolle.

OC modelle die deutlich teurer sind, wie bitte ? Oftmals sind Custom Modelle deutlich billiger als REFERENZ Karten, vorallem die karten von Gigabyte.

Preislicher konkurrent ?! Ok, lächerlicher gehts nicht mehr. BYE !
Die offiziele konkurrenz heisst 290X, kannst du drehen und wenden wie du möchtest. Was soll das, ernsthaft ?

Die RX64 kostet heute teilweise mehr als 1080TI damals, preislicher konkurrent ? Das ist doch ... Oh man.

LG
 
Zuletzt bearbeitet:
sie aber letztendlich nur, weil die GTX980 auch nur maue 4GB zu bieten hatte.

Die ist schon klar das 980Ti zuerst erschienen ist, oder ? Warum vergleichst du die FuryX mit der 980 und lenkst wieder ab.
Die konkurrenz lautete hier 980TI ! Was redest du wieder für einen quatsch ?

Bitte lesen:
PCGH_RAFF schrieb:
Ganz einfach: Die Fury X war 2015 als Konkurrenz zur GTX 980 Ti konzipiert. Und gegen diese sieht sie, vor allem wegen des geringen Speichers, seit dem fast nie Land. Stattdessen schlägt sie sich mit übertakteten Varianten der GTX 980 und GTX 1060 6GB herum.MfG,
Raff

Sry, aber das ist mir zu blöd.
BYE
 
Zuletzt bearbeitet:
Ach ich brauch eh erstmal einen neuen Unterbau mit 8700 k + und 32 GB Ram dann kommt das Monster Spielzeug im Sli Verbund :D :devil::hail::devil: wobei meine beiden Karten gehen gut ab, da geht einiges :D
 
Naja^^ ich finde 599$ MSRP für ne Karte schon recht teuer. Ich finde dafür sollte mehr als ein Luftkühler drinnen sein. Ich fände für den Preis könnten die auch locker ein xx80 Modell mit nem AIO Kühler wie für Vega rauslassen (Das ist jetzt keine aussage Vega sei besser oder mimimi aber AMD, das heißt lediglich das ich eine Luftgekühlte FE Karte für den Preis zu heavy finde!).

Ich finde das man für den High-End Aufschlag schon auch etwas Wert bekommen sollte. Ich mein, die 1080 Hatte mit dem FE Kühler echte Throttling-Probleme. Auf so eine Karte (nahezu) den selben Kühler draufzukleben wie auf die 1070 finde ich einfach Faul. Fand ich übrigens bei Vega 56/64 genauso Faul. Wenn Nvidia High-End Zuschläge rechtfertigen will dann bitte auch mit besserer Qualität als der Mist^^

Mal abgesehen davon glaube ich, dass Nvidia mit Pascal deutlich weniger Aufwand hatte als mit Maxwell. Bei Maxwell mussten sie ne neue Architektur bauen, bei Pascal ham sie primär (nicht ausschließlich) mal Maxwell geschrumpft. Daher finde ich die Preiserhöhung noch weniger berechtigt. Die kleineren Fertigungsgrößen zu entwickeln ist ja weder AMDs noch Nvidias Baustelle. Es gibt ja diese (nennen wir es mal so) Low-Effort-Dualfan Kühler wie sie auf der Asus 580 Duo jetzt drauf sind. Warum nicht so ein Design mal entwickeln? Damit lässt man den Partnern noch genug raum um die FE/Referenzkarten zu übertrumpfen, baut aber nicht so einen Mist auf die Karten und die Referenzdesigns wären bedeutend besser benutzbar. (Gilt wieder für beide Vereine)
Der Referenzkühler mit dem Radial-Kühlerdesign hat schon seinen Sinn - die Karten werden meist in OEM-PCs mit schlechter Belüftung genutzt, wo die Karte dann ihre Abwärme nicht im ganzen Gehäuse verteilt.
Außerdem haben die auch den Vorteil, dass die Karten in Kleinstgehäusen nicht so heiß werden und den PC an sich nicht so aufheizen. Mechanisch werden die Karten nicht so stark belastet und die NVidia-Referenzdesigns der Kepler- (ab GTX770)/Maxwell- (ab GTX970)/Pascal-Karten (ab GTX1060) waren bisher auch äußerst hochwertig.

Und die 1080 hat mit ihrem Referenzkühler nicht gethrottlet. Den Basistakt hat die Karte mit ihrem Referenzkühler garantiert nicht unterschritten - und alles über dem Basistakt ist nur optional.

Ob Pascal gegenüber Maxwell nur nen Shrink ist... Ne, dazu ist die Leistungssteigerung zu groß.

Das Gegenstück zur GTX970 war die 390 mit sogar mehr als 100% mehr VRAM. 3,5GB vs 8GB + etwas mehr Performance.
Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich (Seite 8) - ComputerBase
Das Gegenstück zur GTX970 war sehr sehr lange Zeit ebenfalls nur die R9 290(X). Und die R9 290(X) waren lange Zeit nicht nur teurer, sondern waren auch langsamer und haben mehr Strom verbraucht.
Niemand hat zu dem Zeitpunkt damit gerechnet, dass die Karte für ihre Effizienz und die Leistung, die trotz des 3,5GB-Skandals sehr gut war, so günstig wurde.

Die 390(X) war zwar wieder etwas schneller, allerdings auch nicht wirklich viel. Preislich lagen die auch "nur" auf dem Level der GTX970. Und den schmalen Leistungsvorsprung hat man sich halt mit einem extrem höheren Stromverbrauch erkauft... Nach einem ganzen Jahr GTX970 ohne nennenswerte Konkurrenz.
Die 390(X) ist zugegebenermaßen wegen ihrer 8GB VRAM besser gealtert, wirklich schnell ist sie wie die GTX970 aber nun auch nicht mehr.
 
Der Referenzkühler mit dem Radial-Kühlerdesign hat schon seinen Sinn - die Karten werden meist in OEM-PCs mit schlechter Belüftung genutzt, wo die Karte dann ihre Abwärme nicht im ganzen Gehäuse verteilt.
Außerdem haben die auch den Vorteil, dass die Karten in Kleinstgehäusen nicht so heiß werden und den PC an sich nicht so aufheizen. Mechanisch werden die Karten nicht so stark belastet und die NVidia-Referenzdesigns der Kepler- (ab GTX770)/Maxwell- (ab GTX970)/Pascal-Karten (ab GTX1060) waren bisher auch äußerst hochwertig.

Und die 1080 hat mit ihrem Referenzkühler nicht gethrottlet. Den Basistakt hat die Karte mit ihrem Referenzkühler garantiert nicht unterschritten - und alles über dem Basistakt ist nur optional.

Zu der Sache mit dein Kleingehäußen, also ich hatte vor Urzeiten eine HD5850 im Referenzdesign, die war jetzt ne ganze Zeit im PC von meinem Vater, hab ich aber erst kürzlich ausgebaut und gegen meine alte Fury getauscht nachdem die Karte der Tot für die Lautstärke/Temperatur war. Naja, die Fury ist eigentlich einer recht Heiße Karte aber der Tripple-Fan Lüfter kommt eigentlich gut im Mini-ITX Gehäuse klar. Und so geil ist ein Bitfenix Prodigy mit einem Lüfter vorne einem hinten nicht gekühlt.

Nur fürs Protokoll: Fury mit Nitro+ Tripple Fan Kühler wird ca. so 80 Grad in nem normalen Gehäuse, die 5850 im Refdesign so 83 Grad.

Und naja, Throttling heißt nicht Basistakt unterschreiten sondern das die Karte den Takt senkt um die Temperatur zu stabilisieren wenn der Lüfter nicht mehr reicht um das zu tun.

Blower-Style Kühler sind auch in kleinen Gehäusen nicht so toll. Da gab's mal ein interessantes Video zu, ich glaube das war Jay oder Linus der das getestet hat... Ich sag nicht das es gar nichts bringt, aber eben nicht so viel. Es geht auch nicht darum das die Kühler nicht Wertig gearbeitet sind, sondern dass dieses Blower-Style Design ein "billiges" Design ist. Wenn ein Boardpartner überhaupt keinen Bock hat Geld für einen Kühlerentwurf zu verpulvern nehmen die den Dual-Fan-"Low-Effort"-Kühler oder wie MSI bei der Vega 56 nen Blowerstyle. Ich hoffe nicht du willst mir sagen MSI hätte das Ding für Mini-ITX Cases entworfen^^

Paradebeispiel für einen Wertig aussehenden Kühler der aber unterirdisch ist: Vega Frontier Edition. Schaut toll aus, performt grauenvoll :) Das ding klingt wie ein Hochleistungsföhn.

Ob Pascal gegenüber Maxwell nur nen Shrink ist... Ne, dazu ist die Leistungssteigerung zu groß.

Deshalb hab ich auch geschrieben nicht ausschließlich, aber primär mal ist Pascal ein Shrink. Die haben ja auch den Takt stark angehoben. Vega ist in vielen Punkten auch nur ein Shrink, außer das die Render-Pipeline geändert und RPM eingeführt wurde. Deshalb hat Vega auch die eine oder andere Schwäche der Fury geerbt, genau wie Pascal z.B. den nur softwareseitigen Support für Async Compute von Maxwell. (Das ist jetzt keine Kritik!) Allerdings wurden an Vega im Vergleich zu Fiji mehr Änderungen vorgenommen als an Pascal zu Maxwell. Das ist ja für Pascal jetzt erstmal nichts schlechtes, Maxwell war ja ne sehr flexible und solide Architektur.
 
Zuletzt bearbeitet:
Ach ich brauch eh erstmal einen neuen Unterbau mit 8700 k + und 32 GB Ram dann kommt das Monster Spielzeug im Sli Verbund :D :devil::hail::devil: wobei meine beiden Karten gehen gut ab, da geht einiges :D

Macht SLI noch Sinn ? Eigentlich eine sehr geniale Sache aber z.B. das größte Manko mit VR Brillen nicht kompatibel was sehr sehr schade ist. Wäre da nicht 4K Display mit G-Sync sinnvoller ?
 
Zurück