MSI/Palit GTX 970 oder Sapphire Radeon R9 290 Tri-X

Hey Kollege,

ich stehe momentan vor der selben Frage , aber die Antwort sollte selbstklaerend sein.

1. Eine Investition fuer den PC in der Hoehe , da sollte die Grafikkarte schon 2-4 Jahre genutzt werden.

2. Stromverbrauch der R9 290 ca.300 Watt , GTX 970 ca.145 Watt

3. Wenn du die ganze Nacht Computer gespielt hast ca. 12 Std. dann liegt der Verbrauch der R9 290 mit CPU,FP,LCD LED usw. bei ca. 0,28 Cent kw/h(Anbieter) = 1 Euro/Tag = 31Euro/ Monat , bei der GTX 970 ca. 0,55 Euro/Tag = 15 Euro /Monat ,das sind auf 4,5 Monate gerechnet ungefaehr die 70-80 Euro mehr , die du mit der R9 290 verbrauchen wuerdest.Da die Karte in der Regel 2-4 Jahre zum Einsatz kommen soll ,ist die Ersparnis eindeutig einseitig !

4. GTX 970 volle DirecX 12 Unterstuetzung ,keine Zusatzsoftware wie bspw. Mantle.

5. 100% Microsoft Cooperation.

6. Die meisten Games sind auf Nvidia ausgerichtet. FULL SUPPORT!

Bye
wiki911
 
Hey Kollege,

ich stehe momentan vor der selben Frage , aber die Antwort sollte selbstklaerend sein.

1. Eine Investition fuer den PC in der Hoehe , da sollte die Grafikkarte schon 2-4 Jahre genutzt werden.

2. Stromverbrauch der R9 290 ca.300 Watt , GTX 970 ca.145 Watt

3. Wenn du die ganze Nacht Computer gespielt hast ca. 12 Std. dann liegt der Verbrauch der R9 290 mit CPU,FP,LCD LED usw. bei ca. 0,28 Cent kw/h(Anbieter) = 1 Euro/Tag = 31Euro/ Monat , bei der GTX 970 ca. 0,55 Euro/Tag = 15 Euro /Monat ,das sind auf 4,5 Monate gerechnet ungefaehr die 70-80 Euro mehr , die du mit der R9 290 verbrauchen wuerdest.Da die Karte in der Regel 2-4 Jahre zum Einsatz kommen soll ,ist die Ersparnis eindeutig einseitig !

4. GTX 970 volle DirecX 12 Unterstuetzung ,keine Zusatzsoftware wie bspw. Mantle.

5. 100% Microsoft Cooperation.

6. Die meisten Games sind auf Nvidia ausgerichtet. FULL SUPPORT!

Bye
wiki911

2. Die 970 zeiht deutlich mehr als 145 Watt es gibt Custom Designs die locker 100 Watt mehr ziehen.
4. Die 970 Untersützt Direct X12 nicht Hardware Seitig und Software Seitig unterstütz es die 290 auch. Zudem ist Mantel deutlich besser als alle NVIDIA Features zusammen.
6. Nur Ubisoft Spiele sind auf NVIDIA ausgerichtet EA Spiele laufen auf AMD Karten deutlich besser.
 
Du hast hier gerade ein Troll Alarm ausgelöst , die GTX 900 Architektur(Auch MAXWELL genannt) unterstützt DirectX12 komplett!

NVIDIA GeForce GTX 980 und 970 mit Maxwell-Architektur im XXL-Test

In dem Artikel wird die komplette Hardware Unterstuetzung noch nicht bestaetigt, aber das kann sich ja jeder selbst ausmalen.

MICROSOFT COOPERATION "Das Geschaeft" Alle Spielehersteller muessen sich dieser Uebermacht beugen, wenn Sie verkaufen wollen, logisch oder?

Man sollte nicht zu sehr abheben was AMD Radeon angeht und die Realität sehen!

Gruss
wiki911
 
2. Stromverbrauch der R9 290 ca.300 Watt , GTX 970 ca.145 Watt
Das mit den 145W bei der GTX970 ist schlicht Bullshit. Da das Powertarget der Karten meist bei 250W liegt, ist es bei weitem nicht so viel.
Genau wie bei der R9-290 - da hängt der Verbrauch auch sehr stark von der erreichten Temperatur ab...
Das hat irgendwer mal getestet, ab etwa 80°C (wars glaub ich) steigt der Verbrauch extrem an. Ergo wenn du auf geringen Verbrauch aus bist, musst die Karte ordentlich kühlen.
Und VSync einschalten bzw Frameratelimiter an...

3. Wenn du die ganze Nacht Computer gespielt hast ca. 12 Std. dann liegt der Verbrauch der R9 290 mit CPU,FP,LCD LED usw. bei ca. 0,28 Cent kw/h(Anbieter) = 1 Euro/Tag = 31Euro/ Monat , bei der GTX 970 ca. 0,55 Euro/Tag = 15 Euro /Monat ,das sind auf 4,5 Monate gerechnet ungefaehr die 70-80 Euro mehr , die du mit der R9 290 verbrauchen wuerdest.Da die Karte in der Regel 2-4 Jahre zum Einsatz kommen soll ,ist die Ersparnis eindeutig einseitig !
Diese Rechnung ist falsch, da du von einem völlig falschen Verbrauch ausgehst. Der Unterschied ist bei WEITEM nicht so groß...

4. GTX 970 volle DirecX 12 Unterstuetzung ,keine Zusatzsoftware wie bspw. Mantle.
...ein weiteres Marketingopfer des nV FUDs....

Schau dir mal die letzten AMD Dokumente an, da steht sowas wie 'nach dem derzeitigen Stand wohl DX12 kompatibel, kann sich aber ändern' drin.
Kurzum: Was du hier behauptest ist völliger Käse. Was und wie von DX12 wirklich unterstützt wird, weiß niemand wirklich genau!

Aber hey, die GTX970 sind wohl genau so DX12 konform wie die ganzen Kepler DX11.2 konform waren :rolleyes:

5. 100% Microsoft Cooperation.
Was willst du damit sagen?!

6. Die meisten Games sind auf Nvidia ausgerichtet. FULL SUPPORT!
Und wieder nur FUD/Propaganda, der schlicht völlig falsch ist...


Du hast hier gerade ein Troll Alarm ausgelöst , die GTX 900 Architektur(Auch MAXWELL genannt) unterstützt DirectX12 komplett!
Nein, denn wenn AMD schon schreibt, dass sie es nicht genau wissen, wie kommst du darauf, dass das bei nV der Fall sein soll?!
Ganz ab davon hat nVidia schon bei den Keplers gelogen, was den DX Support betrifft. WARUM soll man ihnen gerade jetzt glauben?!

In dem Artikel wird die komplette Hardware Unterstuetzung noch nicht bestaetigt, aber das kann sich ja jeder selbst ausmalen.
Und woher wollen die die Infos haben?!
Da gibt es nur 2 Möglichkeiten:
a) von NVidia selbst
b) aus den Fingern gesaugt

Beide sind in dem Falle wenig vertrauenswürdig. Siehe DX11.2 Sticker auf der Verpackung von diversen G-Forces auf Kepler Basis...


MICROSOFT COOPERATION "Das Geschaeft" Alle Spielehersteller muessen sich dieser Uebermacht beugen, wenn Sie verkaufen wollen, logisch oder?
Hä?! Watt willst?!

Man sollte nicht zu sehr abheben was AMD Radeon angeht und die Realität sehen!
Die Realität ist, dass man mit beidem gut leben kann und nV bisher derjene welche ist, der sehr viel FUD verbreitet, Dinge aus Standardisierungskonsortiums rausträgt und einzäunt, sich allem fairen Wettbewerb versucht zu verschließen und sogar Spielehersteller übers Managment 'überredet' irgendeinen Müll zu machen, damit 'die anderen' noch schlechter dastehen...
 
Zuletzt bearbeitet:
Stefan das Auto einer Person sagt viel über den Verstand aus, coole Kiste :)

Blödsinn was du da im Übermaß verkündest. 145 Watt ist Maximal , bei Volllast ,ansonsten dynamisch.

Ich gehe von 12/Std. Spielzeit am Tag aus, für die heutige Spielewelt nichts unübliches mehr. Gerade die Leute die sich solche Grafikbrummer kaufen sind meistens Extremzocker.

Nur M$ und Nvidia wissen das Maxwell DirectX 12 komplett unterstützt, AMD versucht schon seit Jahrzehnten den Hardwaremarkt zu erobern, bis jetzt nicht ansatzweise erreicht.


Jedenfalls macht Nvidia in dem Segment (Nur Grafikchips) 4,13 Mrd. Umsatz im Jahr und AMD nur 5,42 Mrd. im Jahr obwohl Sie sich auf andere Hardwarebereiche konzentrieren .

Nvidia geboren 1993 , AMD 1969 - Lässt anmuten das vermutlich Microsoft hinter Nvidia steht ,da sich Radeon ,als noch nicht von AMD übernommen wurde , nie durch seine Leistung auf dem Markt behaupten konnte.

Wir stellen fest , Radeon hatte nie wirklich das KnowHow Nvidia in Sachen Grafikprozessoren das Wasser reichen zu können, stattessen wurde es von AMD übernommen , als Versagerfirma! Jetzt trägt AMD als Radeon Inhaber diesen Ruf weiter voraus. Und da AMD die Herstellungsstrategie weiterhin so verfolgt wie es Radeon damals auch gemacht hat ,bleibt es ne Billigkarte für "Arme Leut".

Kühler billig / alt
Kompatibilität mit DirectX und Games eher schlecht als recht.
Design immer bescheiden .

Gruss
 
Stefan das Auto einer Person sagt viel über den Verstand aus, coole Kiste :)

Blödsinn was du da im Übermaß verkündest. 145 Watt ist Maximal , bei Volllast ,ansonsten dynamisch.

Ich gehe von 12/Std. Spielzeit am Tag aus, für die heutige Spielewelt nichts unübliches mehr. Gerade die Leute die sich solche Grafikbrummer kaufen sind meistens Extremzocker.

Nur M$ und Nvidia wissen das Maxwell DirectX 12 komplett unterstützt, AMD versucht schon seit Jahrzehnten den Hardwaremarkt zu erobern, bis jetzt nicht ansatzweise erreicht.


Jedenfalls macht Nvidia in dem Segment (Nur Grafikchips) 4,13 Mrd. Umsatz im Jahr und AMD nur 5,42 Mrd. im Jahr obwohl Sie sich auf andere Hardwarebereiche konzentrieren .

Nvidia geboren 1993 , AMD 1969 - Lässt anmuten das vermutlich Microsoft hinter Nvidia steht ,da sich Radeon ,als noch nicht von AMD übernommen wurde , nie durch seine Leistung auf dem Markt behaupten konnte.

Wir stellen fest , Radeon hatte nie wirklich das KnowHow Nvidia in Sachen Grafikprozessoren das Wasser reichen zu können, stattessen wurde es von AMD übernommen , als Versagerfirma! Jetzt trägt AMD als Radeon Inhaber diesen Ruf weiter voraus. Und da AMD die Herstellungsstrategie weiterhin so verfolgt wie es Radeon damals auch gemacht hat ,bleibt es ne Billigkarte für "Arme Leut".

Kühler billig / alt
Kompatibilität mit DirectX und Games eher schlecht als recht.
Design immer bescheiden .

Gruss

Hä?

Na, wenn da mal einer nicht dunkelgrün unterwegs ist...

Ich hatte eine Kepler, ich habe eine Hawaii.
Fassen wir mal zusammen:
Blue/Blackscreens bei Treiberupdates?
Gleich oft mit Kepler und Hawaii.

Probleme mit Spielen?
Kepler: Bioshock 2 ("<32MB Videoram vorhanden", Spiel stürzte alle 2-10min ab)
Hawaii: Minecraft, wegen Problem mit Java

Defekte u.Ä?
Kepler: Blackscreen beim Spielen, gefolgt von kaputtem VRAM
Hawaii: Bislang einwandfrei

Lautstärke?
660Ti im Referenzdesign der 680 (Kühler also stärker ausgelegt als der Originale) - unerträglich, mit eigener Lüfterkurve ertragbar
290X im referenzdesign (Kühler für die Karte ausgelegt) - minimal lauter, mit eigener Lüfterkurve und UV ertragbar

Wie viele 290(X) hattest du schon?
Und wie viele 970/980? Ich habe da nämlich schon in etlichen Tests gelesen, dass die bis zu 250W Spitzen, und weit über ihrer TDP Dauer brauchen, als Customdesigns, ohne eigenes OC seitens des Benutzers...
Hast du das elegant überlesen? Vielleicht mal die dunkelgrün getönten Brillen abnehmen, mein Freund.
AMD und NVIDIA sind momentan ziemlich Kopf an Kopf. Nvidia minimal vorne was Leistung und Effizienz betrifft, aber im Gesamtpaket würde ich momentan AMD bevorzugen.
Gerade, weil irgendwie 90% der 970er unerträglich zu fiepen scheinen. Hat meine 660Ti übrigens auch gemacht. Und die 680 eines Freundes.

EDIT: Zur DX Kompatibilität: Die ist so unglaublich schlecht, dass ich BF4 auf Mid/Ultra mit fast 4K wegen Downsampling (aber ohne AA) spielen kann, 62fps Framelock, und sich meine Karte dabei noch langweilt, und meist unter 900MHz taktet (1100 könnte sie). Kein Bisschen Ruckler oder Ähnliches.
Schau mal die PCGH Benches an. 290X und 970. Vergleiche die beiden in FHD, und in 4K.
Und dann sag nochmal, dass die AMD nicht in DX Spielen gut gehen würden (die 290X ist >1 Jahr älter, kleine Randbemerkung).
 
Zuletzt bearbeitet:
Blödsinn was du da im Übermaß verkündest. 145 Watt ist Maximal , bei Volllast ,ansonsten dynamisch.
was du erzählst, entspricht nicht den Tatsachen.
Denn es gibt so gut wie KEINE GTX970, die ein Powertarget von 145W hat. Außer ev. das nV Referenzdesign, das du nicht kaufen kannst...

Nur M$ und Nvidia wissen das Maxwell DirectX 12 komplett unterstützt, AMD versucht schon seit Jahrzehnten den Hardwaremarkt zu erobern, bis jetzt nicht ansatzweise erreicht.
Ändert nichts an dem Zustand, dass bisher niemand so wirklich weiß, was DX12 genau voraussetzt.
Und nVidia ist die denkbar schlechteste Quelle für die DX kompatibilität, da sie schon mal gelogen haben.

Guggsu diesen ARtikel und dann schau mal, was nVidia dazu teilweise geschrieben hat...

Kühler billig / alt
Kompatibilität mit DirectX und Games eher schlecht als recht.
Design immer bescheiden .
Kannst du bitte diese billigen Kommentare unterlassen?! Weil die helfen niemandem, entsprechen nicht der Wahrheit und sind echt nicht weiterführend...
Weil was du hier schreibst, stimmt einfach mal nicht...
 
Alles fadenscheinlicher Kauderwelsch , AMD Radeon mit Nvidia zu vergleich ist in etwa so als wuerde man einen z.B 25 jährigen Arnold Schwarzenegger mit einen 25 jährigen Adrien Brody vergleichen, das geht nicht.

Instinktgemaess würden wohl die Meisten Frauen (wohlgemerkt Sie wären der Wohltracht Arnold Schwarzeneggers ebenwürdig) sich wahrscheinlich für Arnold entscheiden. Also sollte man nie gleich stellen, sondern unterscheiden.

Es treffen zwei verschiedene nicht zusammenpassende Welten aufeinander , wie z.B Erde und Saturn = nicht vergleichbar nur unterscheidbar.

Psychologisch gesehen entscheidet sich jemand für Radeon, weil er A entweder keine Ahnung hat , oder B den Marketing von AMD glaubt.

NVIDIA kann man in dem Fall wohl mehr glauben, weil diese vermutlich die Tochter von M$ ist.

Also , mal angenommen Arnold Schwarzenegger hätte eine Tochter, wen würde er wohl mehr Beachtung schenken , seiner Tochter oder irgend eine Tochter vom anderen Vater?

In diesem Sinne !
 
Alles fadenscheinlicher Kauderwelsch , AMD Radeon mit Nvidia zu vergleich ist in etwa so als wuerde man einen z.B 25 jährigen Arnold Schwarzenegger mit einen 25 jährigen Adrien Brody vergleichen, das geht nicht.

Instinktgemaess würden wohl die Meisten Frauen (wohlgemerkt Sie wären der Wohltracht Arnold Schwarzeneggers ebenwürdig) sich wahrscheinlich für Arnold entscheiden. Also sollte man nie gleich stellen, sondern unterscheiden.

Es treffen zwei verschiedene nicht zusammenpassende Welten aufeinander , wie z.B Erde und Saturn = nicht vergleichbar nur unterscheidbar.

Psychologisch gesehen entscheidet sich jemand für Radeon, weil er A entweder keine Ahnung hat , oder B den Marketing von AMD glaubt.

NVIDIA kann man in dem Fall wohl mehr glauben, weil diese vermutlich die Tochter von M$ ist.

Also , mal angenommen Arnold Schwarzenegger hätte eine Tochter, wen würde er wohl mehr Beachtung schenken , seiner Tochter oder irgend eine Tochter vom anderen Vater?

In diesem Sinne !

Ist dein Haus zufällig Grün gestrichen ?
Das NVIDIA ein Tochterunternehmen von Mikrosoft ist würde mich wundern.
Sonst würde in der Xbox keine AMD Hardware verbaut werden.
 
Wenn ich richtig informiert bin dann ist hier doch das Thema "MSI/Palit GTX 970 oder Sapphire Radeon R9 290 Tri-X".

Dazu möchte ich eine Seite von GameGPU vorschlagen auf welcher verschiedene Grafikkarten, verschiedene Games und mehrere Auflösungen getestet wurden. einfach runter scrollen bis die Balkengrafiken kommen (für die welche nicht kyrillisch lesen können).

Außerdem gibt es im 3dcenter einen Thread in welchem von eventuellen Fehlern bei der VRAM Nutzung der GTX970 berichtet wird.
 
Du hast hier gerade ein Troll Alarm ausgelöst , die GTX 900 Architektur(Auch MAXWELL genannt) unterstützt DirectX12 komplett!
...was schlicht gelogen ist...
Aber nix anderes hat man ja erwartet, nach den ganzen DX11.2 Lügengeschichten seitens nV...

rockpapershotgun schrieb:
We’ve also been informed that DirectX 12 will require a new graphics card in order to take advantage of everything it’s got to offer, though some existing cards will be able to get some benefit from it. That’s a bit of a stinker – early word had it that current DX11 boards would do just fine. We don’t know the full story there yet though – trying to find out more about that ASAP
 
Alles fadenscheinlicher Kauderwelsch , AMD Radeon mit Nvidia zu vergleich ist in etwa so als wuerde man einen z.B 25 jährigen Arnold Schwarzenegger mit einen 25 jährigen Adrien Brody vergleichen, das geht nicht.

Instinktgemaess würden wohl die Meisten Frauen (wohlgemerkt Sie wären der Wohltracht Arnold Schwarzeneggers ebenwürdig) sich wahrscheinlich für Arnold entscheiden. Also sollte man nie gleich stellen, sondern unterscheiden.

Es treffen zwei verschiedene nicht zusammenpassende Welten aufeinander , wie z.B Erde und Saturn = nicht vergleichbar nur unterscheidbar.

Psychologisch gesehen entscheidet sich jemand für Radeon, weil er A entweder keine Ahnung hat , oder B den Marketing von AMD glaubt.

NVIDIA kann man in dem Fall wohl mehr glauben, weil diese vermutlich die Tochter von M$ ist.

Also , mal angenommen Arnold Schwarzenegger hätte eine Tochter, wen würde er wohl mehr Beachtung schenken , seiner Tochter oder irgend eine Tochter vom anderen Vater?

In diesem Sinne !

:wall: :wall: :wall:
Selten so einen Bullshit gelesen. Account aufmachen, und erstmal AMD bashen. Dabei die Zeichensetzung gekonnt ignorieren. Dabei noch Bullshit erzählen. AMD und Nvidia kann man nicht vergleichen? Aber Nvidia, AMD, Brody und Schwarzenegger schon?? nvidia ist garantiert nicht die Tochter von Ms, da Ms in den Xbox ones amd Hardware verbaut :wall: :wall:
Und die 970 verbraucht nur geringfügig weniger als die 290. Das ist schlichtweg Fakt. Beweise es doch dass es nicht so ist.
 
Aber wo wir gerade beim flamen sind:*** euch dieses Statement mal an[/url].

Schaut also so aus, als ob die 4GiB zwar vorhanden sind, aber nur 3,5GiB davon nutzbar sind. Yeah, sowas hat man doch gern...
 
Zurück