Geforce GTX 1080/1070: Kurze Frage, kurze Antwort

Wie wärs mal mit Tests/Reviews lesen?
Oder sollen wir dem lieben Herren eine Zusammenfassung aller Tests verfassen?
 
Wie wärs mal mit Tests/Reviews lesen?
Oder sollen wir dem lieben Herren eine Zusammenfassung aller Tests verfassen?

Es gibt auch Leute die nicht genau Wissen was es genau mit Shader , GrafikUnits, Raster, Textureinheiten what ever auf sich hat, zumal sie nicht wissen was es ausmacht wenn weniger in einigen Bereichen angegeben wird (in Zahlen). Vor allem nicht in direktem Vergleich. Es ist nicht jeder so tief in der Materie und stellt daher evtl. "aus deiner Sicht" dämliche Fragen.

Weiterhin sei Erwähnt die Tests die ich gelesen habe, haben bislang lediglich Produkte von Nvidia verglichen.

Also sorry Großmeister, dass man in einem Forum solche Fragen stellt ;)
 
Zuletzt bearbeitet:
Es gibt auch Leute die nicht genau Wissen was es genau mit Shader , GrafikUnits, Raster, Textureinheiten what ever auf sich hat, zumal sie nicht wissen was es ausmacht wenn weniger in einigen Bereichen angegeben wird (in Zahlen). Vor allem nicht in direktem Vergleich. Es ist nicht jeder so tief in der Materie und stellt daher evtl. "aus deiner Sicht" dämliche Fragen.

Weiterhin sei Erwähnt die Tests die ich gelesen habe, haben bislang lediglich Produkte von Nvidia verglichen.

Also sorry Großmeister, dass man in einem Forum solche Fragen stellt ;)

Also im PCGH Test ist auch ne 390 bei den Benchmarks mit drin...
 
Was heißt das mit "Eine weiter Karte für Physix"
Könnte man dann 2x 1080 @SLI + 1x 750Ti für Physix nutzen?

Oder muss es 2x 1080 + 1080(Physix) sein?

Muss dich leider enttäuschen , es wurde komuniziert, dass mehr als zwei Karten SLI nicht mehr unterstützt wird bei NVidia.
Und ja ich lese auch (viele) NVidia Beiträge.

Mich Interessiert zB. weniger das VR geschmeus das sicher von der technischen Umsetzung her spannend klingt als viel mehr dieses neue "Fast Sync"!

Kleine Info: quelle->Geforce GTX 1/1: Kurze Frage, kurze Antwort [Update]
Q: Was ist FastSync

A: Eine neue VSync-Option, welche die Latenz verringern soll. Anstelle der üblichen Buffer-Reihenfolge (first in, first out, kurz fifo) wird nun derjenig Bildbuffer genutzt, welcher zuletzt fertiggestellt wurde (last rendered buffer, lrb), ältere Buffer werden verworfen. Auch wird die Render-Pipeline von der Display-Engine entkoppelt. Dadurch soll weniger Rückstau zur Game-Engine entstehen und die Steuerung direkter werden.
 
Muss dich leider enttäuschen , es wurde komuniziert, dass mehr als zwei Karten SLI nicht mehr unterstützt wird bei NVidia.
Und ja ich lese auch (viele) NVidia Beiträge.

Mich Interessiert zB. weniger das VR geschmeus das sicher von der technischen Umsetzung her spannend klingt als viel mehr dieses neue "Fast Sync"!

Kleine Info: quelle->Geforce GTX 18/17: Kurze Frage, kurze Antwort [Update]
Q: Was ist FastSync

A: Eine neue VSync-Option, welche die Latenz verringern soll. Anstelle der üblichen Buffer-Reihenfolge (first in, first out, kurz fifo) wird nun derjenig Bildbuffer genutzt, welcher zuletzt fertiggestellt wurde (last rendered buffer, lrb), ältere Buffer werden verworfen. Auch wird die Render-Pipeline von der Display-Engine entkoppelt. Dadurch soll weniger Rückstau zur Game-Engine entstehen und die Steuerung direkter werden.

Das mit der Physix Karte steht aber im Nvidia so wie im PCGH Artikel... O.o
Ich meine nicht 3 Way oder 4 Way. Sondern wie früher eine die nur Physix extra macht und das Duo SLI Gespann entlastet. (Wird aber wohl nicht viel bringen, interessiert mich nur)
 
2-Wege-SLI+Physx geht weiterhin, auch mit einer anderen Physx-tauglichen Karte als Beschleuniger. Ob allerdings eine 750Ti nicht schon bremsend wirkt, würde ich nicht ausschließen. Das Physx-Zeug muss ja auch irgendwie in den Speicher der rendernden Grafikkarten.

Für 3- oder 4-Wege-SLI, nur musst du dir diesen Enthusiast-Key bei Nvidia herunterladen. Das steht aber im Artikel.


---
Eine R9 390 ist ähnlich schnell wie eine R9 290X, also gilt hier entsprechendes.
 
@Schachmatt123 sicher gibt es Gründe für eine 970, dass will ich nicht bestreiten, aber ich halte für die meisten eine 390 für sinnvoller. Und was Lautheit und Wärme angeht: Wer Referenz kauft ist selbst Schuld.
Tja, nur leider habe ich nicht von Referenzdesign gesprochen. Die leiseste 390 Custom ist immer noch doppelt so laut wie meine 970 Custom, wird deutlich heißer und heizt das System unnötig auf. In den von mir gespielten Spielen schneidet sie durch die Bank schlechter ab, incl. Frametimes. Noch dazu lässt sich meine Karte ohne Spannungserhöhung deutlich besser übertakten. Das die 390er damals grundsätzlich besser sein sollten und der Kauf einer GTX 970 wenig intelligent, wie die ursprüngliche Behauptung implizieren sollte, ist also schon mal vollkommener Unsinn. In diesem Zusammenhang kann man durchaus von einer dummen Behauptung sprechen, gell ;)
 
Und was soll die Karte aufheizen? Deine Gehäuserückwand? Ich verstehe deinen Punkt schon, aber wer eine Karte für >300€ hat, sollte diese auch in einem anständigen Gehäuse betreiben. Egal ob NV oder AMD.

Die Leistung liegt in einem eher kleinem Prozentbereich (auch mit OC). Und ich bin mir sicher, bei Spielen mit entsprechendem VRAM Verbrauch liegt die 390 vorne.

Wieso hast du dich gegen die 390 entschieden? Wegen den 0,6 Sone mehr? Wegen der "teuren" Stromrechnung? Weil du einen UHD Fernseher benutzt und dafür HDMI 2.0 braucht? Weil du dir deine Hand am Gehäuse verbrennst?

Ich weiß nicht, ob du es weißt, aber NV muss für jedes Spiel einen Treiber für die 970 rausbringen, sonst könnte auch zuerst der langsame VRAM verwendet werden. Was machst du, wenn NV keine Lust mehr hast Treiber für die 970 zu schreiben, wenn doch schon lange Pascal draußen ist? Dir eine Pascal kaufen? Herzlichen Glückwunsch NV, alles richtig gemacht.

(Wenn du dich mehr für das Problem interessiert, siehe Signatur. Ich habe das Problem oft diskutiert und dort findest du alle Pro und Contra Argumente. Habe keine Lust das nochmal durchzukauen.)
 
Kumpel du gefällst mir!!

9Strike= 5Punkte
Schachmatt123= 0Punkte

Ich denke jetzt ist alles klar.

Um auch meinen Senf dazu zu geben;
Als die 970 raus kahm war ich als AMD Fan echt geplättet und habe meinen NVidia-Kumpels(also fast allen) diese Karte empfohlen.
Gute Performance, guter Preis (für damals) und etwas weniger Strom als 290er`s.

Weisst du mein Wort ist mir was wert und dann kahm raus, dass es sich hier um ein Deklarationsschwindel handelt!
Alleine nur für das, würde ich für Generationen keine NV mehr nehmen. Eine zwielichtige Firma kommt mir nicht ins Haus.
Weiss nicht aber vielleicht hat das mit Rückrad zu tun?
Auf jedenfall waren die 560Ti und davor 9800GT die letzten für eine laaaaaaaange Zeit.
 
9Strike= 5Punkte
Schachmatt123= 0Punkte
Na, wenn du das so siehst. Ich habe das leisere, kühlere, sparsamere und in den von mir gespielten Spielen schnellere Produkt gekauft. Kurz: In allen Belangen überlegen. Ich wüsste nicht was ich mich da noch für rechtfertigen soll. Aber angeblich trotzdem verloren. Na, dann viel Spaß noch beim unreflektierten 970er Käufer Bashing :daumen:
 
Zuletzt bearbeitet:
Und wie lange hast du vor die Karte zu behalten? Reflektiert in die Zukunft gucken und so.

In der Theorie 10 Jahre.

In der Praxis max. 2 Jahre.

Am Ende regt man sich dann auf das man die alten Karten schon nach 2 Jahren verkauft hat und die Performance gerne mal an den ganz aktuellen Titel getestet hätte! ;)
 
Naja, bei einer Grafikkarte bleibt die Performance bei gleicher Grafik in der Regel gleich, nur das die Regler eben weiter links sind. Nur bei der 970 kommen noch Mikroruckler wegen des VRAMs dazu.
 
Du hast dir klar das schlechtere Produkt gekauft... Vor allen Dingen in Bezug auf die Zukunftssicherheit (Vram, Treiberabhängigkeit, keine asynchronen Shader). Die 10€ Stromkosten mehr im Jahr sollten den Käufer einer 300€ aufwärts Karte eigentlich egal sein.
Ich möchte mal in Bezug auf Lautstärke darauf hinweisen, dass die meisten Zocker beim Spielen ein Headset tragen und die Lautstärke so nicht wirklich relevant für die Meisten ist.
Die 970 ist btw in manchen Spielen nur besser, weil sie auf Nvidia Karten optimiert sind, die 390 schafft es ohne so etwas die 970 abzuziehen.
 
Zurück