Themenabend mit Nvidia zu Geforce GTX 680/690: Start am 8.5. um 16 Uhr

Hmm mal Lars Fragen, ob mei GTX580 auch die 8,33333 Prozent schneller werden, wenn ich da 13V draufgeb "G"

Super Aktion, hier meine Frage:

Bin im Besitz von zwei GTX 680 und betriebe diese im SLI. Aktuell sitzten die Karten auf einem Asus P8P67 Pro und laufen daher auch nur in PCI-Express 2.0 auf 8x. Ich hab nun von Anfang an das Gefühl das die Karten jeweils mit "angezogener Handbremse laufen". Bermerkbar macht sich dies nun vor allem in Battlefield 3. Habe einen 120 Hz Monitor von Asus und auch Vsync aktiviert. Von Rucklern möchte ich nun nicht sprechen aber große Framedrops sind vor allem im Multiplayer zu bemerken. Die Frams bewegen sich dort im Bereich von 70-120 FPS. Was mich dabei wundert: Beide Karten sind nur 70-80 % ausgelastet (per OSD mit EVGA Precission X ausgelesen). Es wären demnach ja noch Leistungsreserven vorhanden um zumindest im Bereich von 100 FPS zu bleiben. Ist dies aktuell noch ein Treiberproblem oder limitiert hier mein PCI-Express Bus. Würde ein Wechsel zu einem X79 System + I7 3930k das Problem auch lösen?

Hier noch ein paar Infos zu meinem restlichen System: i7 2600K @ 4,4 GHz (inGame CPU Auslastung ca. bei 50 %), 8 GB Ram, Battlefield 3 auf System SSD installiert, Nvidia Treiber: 301.10., EVGA GTX 680 SLI. Auflösung: Full HD

Vielen Dank für die Beantwortung meiner Frage.

EDIT: Die Frage in Kurzform:

In wie fern profitiert ein GTX 680 SLI Gespann bei Full HD Auflösung von PCI-Express 3.0 16x im Gegensatz zu PCI-Express 2.0 8x.

Hab das selbe board, 2700k @ 4,5, 4GB OCZ 1333, crucial 128GB SSD als Sys. Ebenso Full HD, Treiber 301.24 Beta.
Quasi selbiges Problem: CPU und GPU jeweils nicht zu 100Pro ausgereizt. Da geht noch was! Ergo irgendwo wirds scheitern.

Grad an MWLL (Crysis Warhead Basis) getestet. Einstellungen ne Ecke höher als Max wemlich msterconfig quality, Full HD und 4x FSAA Im Treiber: 2 Supersampling, 16x AF, FXAA ein, Texturfilterung: Hohe Qualität, Energieverwaltung: Max Leistung, Vsync aus.
Fps meisst 50-70 je nach Aktivität auch mal höher wenn nix los ist.
Jetzt kommts: GPU Auslastung laut EVGA Precision: 50%!!! +-10% paar peaks hier und da... CPU Auslastung 20%? Halo??? die 4 genutzen threads füllen im Task Manager jeweils ca. die Hälfte der Skala. Aber unterschiedlich hoch. vielleicht steigt die gesammte CPU AUslastung höher wenn hyperthreading deaktiviert ist. wer weiss.
Punkt um auch bei mir bremst/limitiert irgendwas. Es bedarf somit weiteren Messungen ala Schnittstelle, Speicher oder sonstwas.
 
Ich möchte mich unbeliebt machen und einen kleinen Fragen-Katalog in den Raum werfen.

1. Wann kommen stromsparende Modelle im Preisrahmen 120-200 Euro (Alternative zur HD 6870) und was leisten diese im Vergleich zur HD 6870?

2. Wie sieht die GTX6-Produktpalette im allgemein aus? Eine Roadmap á la Intel wäre nicht übel, dann kann ich mich aktiv entscheiden ob ich warten mag oder nicht.

3. Wie laufen GTX 670/680/690 im SLI-Verbund mit PCIe 2.0 16x/4x?

4. Sind weitere Optimierungen bei der Bekämpfung von Mikrorucklern in SLI-Systemen geplant, profitieren davon auch Single-GPU-Karten im SLI-Verbund?

5. Welche Fortschritte in der Treiberprogrammierung werden an die GTX5er-Serie weitergegeben? Welche davon offiziell, welche auf eigene Gefahr?

6. Ist angedacht Downsampling-Auflösungen von der Treiberglücksspielerei zu einem aktiv nutzbarem Feature zu machen?

Mein Wunsch: Auswahl mit Dropdown-Feld im Treiber: "Downsampling-Auflösungen anbieten" <nein> <ja> <individuell>. Wähle ich <ja>, kann ich im Spielmenü 125%; 150% und 200% der nativen Auflösung wählen, über die Details Verhandeln Grafikkarten- und Monitortreiber (sofern der Monitorhersteller ein Downsampling-Profil anbietet). Optional sind individuelle Einstellungen im Grafikkartentreiber möglich.

Für mich wäre dies ein echtes, neues Argument für Nvidia.
 
Sodele, dann will ich auch mal meinen Fragenkatalog loswerden, da ich bis um 16 Uhr Vorlesung habe, und dann erst was weiß ich wann daheim bin... Wäre also nett, wenn ihr die Sachen gebündelt weitergeben könntet. nVidia Menschen findeste ja schlechter als ne Stecknadel im Heuhaufen....

Also erstmal die technischen Fragen:

  1. Besteht bei den GK1xx wie bei den Tahiti Chips von AMD auch eine starke Temperaturabhängigkeit der Leistungsaufnahme (gemessen 1-3W/°C)?
  2. Insbesondere unter Berücksichtigung von 1.: Wann werden wir WaKüs als Refdesign zu annehmbaren Preisen sehen, bzw. überhaupt in Absehbarer Zeit?
  3. <strike>Um die Effizienz weiter zu steigen ist es auf mittlere Sicht nicht mehr tragbar dedizierten RAM zu verbauen. Da Xilinx erfolgreich gezeigt hat, das Interposer in Massenproduktion möglich sind, stellt sich mir die Frage, wann hier ENDLICH mal von AMD/nVidia nachgezogen wird. Insbesondere nVidia, die mit ihren großen Chips Innovationsbereitschaft zeigen lassen hier schmerzlich ihre Sonderstellung vermissen, insbesondere wenn man daran denkt, das sich nVidia Effizienzsteigerungen auf die Fahnen geschrieben hat</strike>
  4. Sind bei der GTX680 nun dedizierte DP-Units verbaut, oder ist diese Funktion in die SP-Units mit integriert, nur mit einem schlechten Verhältnis
  5. Ist die DP-Performance der GTX680 beschnitten (Jaja, ich glaub PCGH hat dies schon mit Ja beantwortet, aber hier ist eh Klärungsbedarf angesagt)
  6. Welche Erklärung/Berächtigung/Rechtfertigung gibt es dafür, das bei GK104 das ALU/Cache Verhältnis dermaßen schlecht gewählt wurde. Selbst die GF1x0 bietet hier deutlich! mehr. Für GPGPU ist der Chip ja so nahezu nicht zu gebrauchen
  7. Ist die DP-Beschneidung eine Software/Bios/Treiber Beschneidung, oder wird mit durchbrennenden Transistoren/Lasercut gearbeitet?
  8. Wann wird bei CUDA endlich der x86 Adressraum integriert, so das man das expliziehte Kopieren sich sparen kann
  9. Wird GK104 auch CUDA 5 unterstützen?
  10. Wann wird CUDA 5 nun genau erscheinen?
  11. Welche Vorteile bietet CUDA 5?
  12. Ist GPUDirect mit einer GeForce GTX680 auch möglich unter CUDA 5?
  13. Wie breit ist der physikalische Adressraum auf den GK1xx Karten? 32, 40 oder 64 Bit?
  14. Wann wird es endlich möglich sein, ohne Probleme mehr als 8 GeForce auf einem Host zu betreiben?
    Wird diesbezüglich aktiv seitens nVidia mit den anderen Herstellern zusammengearbeitet?
  15. Unterstützt nVidia in Zukunft OpenCL gleichrangig zu CUDA? Es gibt immer wieder Berichte, das hier nVidia mit Absicht nicht die volle Leistung bringt.
  16. Wann erhalten wir endlich Preemptive-Sheduling?
  17. Bezogen sich die 2,5x DP/W Effizienzsteigerung im Vergleich zu Fermi auf GK104 oder auf GK110?
  18. Funktioniert der gDebugger nun Problemlos mit nVidia Hardware?
  19. Bestehen die Probleme mit den SB-E core ix und der GK600er Serie noch immer, und wer ist dafür als Schuldiger zu bennen, das kein PCI-E 3.0 funktioniert?
    Wird PCI-E 3.0 in Zukunft mit 100%!!! Sicherheit auf allen SB-E Systemen mit einer GTX600 laufen?
  20. Setzt nVidia auch in Zukunft auf CUDA, oder entscheidet man sich nun doch für OpenCL, was sehr zu begrüßen wäre.
Sodele, das sollte wohl für den Anfang reichen. Ich hatte zwar noch einige Fragen, aber die fallen mir grad nicht ein..

Fragen direkt zur GeForce GTX6x0:

  1. Wann wird sich dem Thema Downsampling und Supersamlping inkl automatischer LOD-Anpassung angenommen? Hier bietet AMD einen echten Mehrwert
  2. Wie sieht nVidia den "Bruch" von DX11 Spezifikationen, wenn man obige Möglichkeiten direkt im Treiber zugänglich macht? Aus Sicht eines Entwicklers ist dies ein SEHR zweischneidiges Schwert, da eben Sachen nicht mehr so aussehen wir man Sie sich selbst vorstellt, und es dann immer zu Problemen mit Postprocessing usw. kommen kann, die man nicht abschätzen kann, für die man dann aber verantwortlich gemacht wird.
  3. Warum vernachlässigt nVidia den deutschen Markt so sträflich? Tester erhalten nur SEHR wenig Zeit zum testen, dann wird hier in Deutschland auf jeden hustenden Floh mit Adleraugen geschaut, während in Asien Infos noch und nöcher teilweise nach außen dringen, oder aber auch Händler in keinster Weise belangt werden, zumindest nicht für uns ersichtlich.
  4. Warum ist nVidia nicht auf der CeBIT vertreten. Insbesondere für den europäischen Markt ist diese Messe trotz allem noch immer recht groß und wichtig. Man könnte hier ja auch nocht immer neue Produkte vorstellen. Der hiesige Markt wird ja aber recht gekonnt ignoriert. Zumindest kommt es einem so vor.
  5. Wie sieht nVidia den Datenschutz bzgl der neuen Cloud-Funktion zu den Grafikeinstellungen?
    Was wird unternommen um die Privatsphäre des einzelnen Nutzers zu wahren, welche Daten werden erhoben, wie kann der Nutzer widersprechen, welche Vorkehrungen unternimmt nVidia vor Hacks und Verteilung von Schadcode usw. usw usw.
    Wird auf die Besonderheiten des deutschen Rechts expliziet Rücksicht genommen?
Ich glaub das wars erstmal :ugly:

EDIT:

Und da fällt mir doch glatt noch was ein:


  • Mit ZeroCore hat AMD einen echten Vorteil bei Multi-GPU System. Wann wird nVidia hier nachziehen?
  • <strike>Wann erhalten wir die ersten GK1xx Tesla GPUs?</strike>
EDIT2:
Und noch eine:
Nachdem die GTX680 sich bereits sehr schlecht für GPGPU eignet, wird hier eventuell die Beschneidungspolitik von nVidia in Zukunft fallen gelassen, insbesondere wenn die Trennung zwischen Gamer und GPGPU-Karten weiter forciert wird?
Die nVidia Karten hinken ja heute schon meilen weit hinter den AMD-Karten hinterher, und das obwohl nVidia CUDA sehr sehr sehr lange als das non plus Ultra Feature gepusht hat, was einige als echtes Trauerspiel empfinden.
 
Zuletzt bearbeitet:
Vll solltest du ein paar Fragen streichen ... vor allem zu viele, die eh nicht beantwortet werden da "upcoming products".
 
Ich hab die wichtigsten Punkte mal fett markiert, und auch 2 Sachen raus gestrichen, mit mehr Kürzen tu ich mir wirklich schwer.

Aber ist ja auch kein Wunder, das so viele Fragen zusammen kommen. Die Leuts erwischte halt auch nirgends....:schief:
 
Ich hab eigentlich nur eine Frage zu NV Surround:
Gibt es Pläne (SoftTH ähnlich) eine Unterstützung für beliebige Monitorkonfigurationen im "Virtual Singlescreen" Modus an zu bieten? Technisch ist es ja offensichtlich möglich(ein einzelner Finne hat es in seiner Freizeit für DX9 ohne Treiberzugriff gelöst).
 
Wird Nvidia auch SGSSAA im Treiber integrieren für die GTX 6xx?

Wieso wird für Multi GPU nicht mal ein anderes Verfahren verwendet statt immer das selbe das aber Microruckler verursacht?
 
Weil du heutzutage Postprocessing usw usw drin hast, und daher keine anderen Unterteilungen nehmen kannst. Zumindest soweit mir bekannst ist, funtioniert das einfache Unterteilen usw eben nicht mehr so wie dies früher möglich war. Glaub PCGH hatte da im letzten Jahr auch mal einen Artikel dazu, der das recht anschaulich beleuchtet hat.

Mir ist aber doch noch was eingefallen:

Die Tests von PCGH und anderen haben ja aufgezeigt, das nVidia Dual- und Tripple-Core Besitzer überproporzinal benachteiligt, sprich die Gameingleistung sinkt viel stärker ab als dies zu erwarten wäre. Es haben zwar immer mehr Leute Quadcores, aber es besteht durchaus die Vermutung meiner Seits, das hier unnötigerweise Performance verschenkt wird, bzw. unnötigerweise CPU-Last generiert wird.

Ist nVidia diese Thematik bekannt?
Hat nVidia sich mit diesem Problem auseinandergesetzt/setzt sich damit auseinander?
Kann auf eine Lösung des Problems gehofft werden, oder hat dies sehr untergeordnete Priorität?`

@Olstyle:
Was meinst du eigentlich? Ich kann dir nicht wirklich folgen bei der Frage :(
 
Wieso wird für Multi GPU nicht mal ein anderes Verfahren verwendet statt immer das selbe das aber Microruckler verursacht?

es ist nicht das verfahren an sich was die microruckler verursacht, sondern die unterschiedliche last pro frame auf jedem Grafikchip der unterschiedlich schnell mit der berechnung fertig wird und so die ausgabe der frames in minimal unterschiedlicher frequenz bzw zeitlich versetzt auf den bildschirm bringt, die chips von heute müsen nicht nur noch ein paar texturen auf die polygone klatschen wie früher.
 
@Olstyle:
Was meinst du eigentlich? Ich kann dir nicht wirklich folgen bei der Frage :(
NV Surround(genau wie AMDs Eyefinity) setzt vorraus dass alle Bildschirme Nebeneinander(bzw. bei AMD noch 2 hoch 3 breit als Sondefall) angeordnet sind und alle mit der selben Auflösung laufen. Ausserdem ist ihre Anzahl der Monitore auf bestimmte Werte(2 gehen z.B. nicht) begrenzt. Es gibt aber technisch keinen Grund warum man nicht aus jeder Bildschirmkonfiguration ein "SingleLargeSurface" mit der Auflösung des die Konfiguration umschließenden Rechteckes simulieren kann. So wären z.B.(wie bei mir) kleinere Zusatzmonitore möglich(einfach mal nach PLP googlen, das ist der simpelste Fall).
 
Hmm mal Lars Fragen, ob mei GTX580 auch die 8,33333 Prozent schneller werden, wenn ich da 13V draufgeb "G"



Hab das selbe board, 2700k @ 4,5, 4GB OCZ 1333, crucial 128GB SSD als Sys. Ebenso Full HD, Treiber 301.24 Beta.
Quasi selbiges Problem: CPU und GPU jeweils nicht zu 100Pro ausgereizt. Da geht noch was! Ergo irgendwo wirds scheitern.

Grad an MWLL (Crysis Warhead Basis) getestet. Einstellungen ne Ecke höher als Max wemlich msterconfig quality, Full HD und 4x FSAA Im Treiber: 2 Supersampling, 16x AF, FXAA ein, Texturfilterung: Hohe Qualität, Energieverwaltung: Max Leistung, Vsync aus.
Fps meisst 50-70 je nach Aktivität auch mal höher wenn nix los ist.
Jetzt kommts: GPU Auslastung laut EVGA Precision: 50%!!! +-10% paar peaks hier und da... CPU Auslastung 20%? Halo??? die 4 genutzen threads füllen im Task Manager jeweils ca. die Hälfte der Skala. Aber unterschiedlich hoch. vielleicht steigt die gesammte CPU AUslastung höher wenn hyperthreading deaktiviert ist. wer weiss.
Punkt um auch bei mir bremst/limitiert irgendwas. Es bedarf somit weiteren Messungen ala Schnittstelle, Speicher oder sonstwas.

da möchte ich auch mal was einwerfen

es geht in beiden Fällen um Multiplayer-Betrieb?
 
Da hier bereits eifrig diskutiert wird, möchte ich nur noch einmal darauf hinweisen, dass hier nur dann eine Frage gestellt werden sollte, wenn ihr zwischen 16 und 19 Uhr NICHT online sein könnt. Ansonsten bitte ich darum, noch etwas zu warten und dann Nvidia direkt beim Themenabend zu fragen.
 
Ich hätte da eine Frage zur Preisentwicklung bei der GTX 690:

"Wir haben für die GTX 590 im Schnitt knapp 700€ gezahlt. Nimmt man die Chipgröße bzw die Chipmasse als Hauptkostentreiber für eine Grafikkarte an, dann sollte die GTX 690 so ca bei 400€ liegen, aufgrund ihrer kleinen "Microchips". Nun sieht es aber so aus das im Handel ca 250% mehr verlangt werden, nämlich knapp 1000€. Nimmt sich jetzt Nvidia oder TSMC das recht heraus eine der heftigsten Preissteigerungen in der Geschichte des Handels durch zu führen ? Kostet der 28nm Prozess jetzt tatsächlich 250% mehr als der 40nm Prozess ? An dem bißchen mehr Vram kanns nicht liegen weil das Board ja im Gegensatz deutlich abgespeckter als das der GTX 590 daher kommt ? Zahlen wir vielleicht 500€ für den hübschen neuen Kühler ?"

Das die Frage nicht im haarkleinen Euro Bereich aufgeschlüsselt werden kann ist mir klar, nur woher die Ursprünge dieser extremen Preissteigerung kommen sollte durchaus verlautbart werden können, zumindest wenn man nix zu verbergen hat.

Danke für ihre Aufmerksamkeit :schief:
 
Zurück