Nvidia Maxwell: Angeblich Spezifikationen zur GTX 870, + 18 % zur GTX 770 im 3DMark 11

Vor einem Jahr kam eine GK mit ca 20% Mehrleistung und alle haben Hurra geschrien und manchen war es sogar 1000€ wert. Also ich verstehe die Aufregung hier nicht. Seid froh wenndie 20% mehr diesmal "nur" 650€ kosten
Mehrleistung gegenüber was? Wie es nach aktuellen Informationen aussieht, bietet nicht mal die 880 eine Mehrleistung gegenüber aktuellen Single GPUs. Das ist der Grund, warum niemand "Hurra!" schreit.
 
aktuellen Informationen? - Gerüchte triffts. Und da versammelt sich alles. Ob nun erwunschwartene XX% sich realisieren, dazu ist mir keine qualifizierte Info bekannt. Und wenn du welche hast, dann würde ich mal meinen, dass du NDA Bruch begangen hast.
 
Na. Nur noch einen PCIe Stecker bei so einer Karte?
Daran glaubst du doch selbst nicht oder? ;)

Warum denn nicht?

Eine GTX770/780 verbraucht unter Last irgendwas zwischen 180-200W, da gleicher Chip. Wenn ich die Zahlen richtig im Kopf habe, sind die Maxwell-Kerne etwa 35% effizienter als die von Kepler. Die Energieeffizienz ist etwa 50% besser als Kepler. Jetzt kannst du einmal ein wenig Zahlenspiele machen und sie auf eine neue Karte anwenden.

+18% Mehrleistung auf die GTX770 wird in dieser News als mögliches Gerücht genannt. Bei dem Stromverbrauch könnte es durchaus möglich sein, dass man unter die 150W (PCIe 75W + 6-Pin 75W) kommt. Das heißt ein 6-Pin reicht theoretisch!

Im Netz gibt es sogar Gerüchte, eine GTX880 ebenfalls nur mit einem 6-Pin auskommt. Allerdings sind das dann keine OC-Versionen. Die 8GB-Version braucht sicher 2x6-Pin, wegen des damit verbundenen höheren Stromverbrauchs. Wenn du das im Verhältnis siehst, ist eine Karte bis 300-400€ je nach Ausstattung schon möglich.
 
Aber nicht praktisch. Die GTX 870 wird 2x 6 Pin haben.

Eine Begründung wäre nett! ;)

Maxwell hat etwas die 2-fache Leistung/Watt im Vergleich zu Kepler. Das ist der Stand bei der GTX750 Ti. Selbst wenn es nicht perfekt nach oben skaliert, lass es nur 1,75-fach oder 1,5-fach sein. Die 20% Mehrleistung im Vergleich zur GTX770 sind noch längst nicht alles, was in Maxwell steckt.

EDIT:
Auf der anderen Seite ist Nvidia auch nicht unbedingt dafür bekannt, sofort die maximal mögliche Leistung zu bringen. Im Netz fand ich Angaben
*170W TDP für GTX870
*190W TDP für GTX880
... beide mit 2*6-Pin vermutet. Schade! Das heißt wohl warten auf Refresh!
 
Zuletzt bearbeitet von einem Moderator:
Der PEG Slot (PCIe) kann dir keine 75Watt über 12v liefern, laut Spec sind es lediglich 66Watt + 9Watt über 3.3v. Auch sonst sind x16 Slots per default auf 25Watt beschränkt. Nach der Initialisierung dürfen Karten mit voller Bauhöhe allerdings auch mehr ziehen (66 + 9 Watt), dabei gilt es aber die anderen Steckkarten auf 25 Watt begrenzt zu lassen.

So habe ich zumindest die PCIe Specs verstanden.

Sprich wenn du dich auf PCIe Slot + 75Watt einschießt und du willst ein SLI konfigurieren, dann kann es evtl. außerhalb der Spec laufen.

Daher wirst du bei highend Karten die Hauptversorgung/Wandlung (GPU und VRAM) auch immer über die extra Stromstecker gespeist sehen.
 
Auf der Referenzkarte kann das schon gut möglich sein. Wobei die auch hätten nen 8 Piner nehmen können um Kosten zu sparen. Die Partnerkarten haben dann wohl alle 8+6Pin. Schon die 75TI KFA von Hof hat nen 8 Piner drauf. Also wird auch auf den 860er nen 8+6er drauf sein und bei 870er entweder 8+6 oder 8+8. Sonst wäre das schon sehr optimistisch mit den zweimal 75Watt über die 6Pol+den a Bissel was über PCIe.

Ist aber auch anderswo so zu sehen. wie etwa MSI Lightning die hat auch nicht die Forgabe an Pol Anschlüsseln für die 290er Karten und sicherlich gibts noch mehr Beispiele, die mir aber gerade nicht einfallen.
 
Das deutet dann wohl auf die bereits erwarteten 20% fps-Steigerung hin.
Das bei weniger benötigter Leistung ist ja ganz nett, aber andererseits auch nichts besonderes.

--> Die 870 bewegt sich somit auf dem fps Niveau meiner 780.
Der Preis der 870 wird wohl auch auf dem Niveau der derzeitigen 780er liegen.
Vom Übertaktungsniveau erwarte ich mir jetzt auch keine besonderen Sprünge.
Also wenn jemanden die paar gesparten Watt nicht hinter der Ofenbank hervorlocken, kann man sich auch gleich ne 780er holen und braucht nicht mehr länger warten.
 
Im Weihnachtsgeschäft könne die Preise im Vergleich zum Start dann auch wieder um gute 30% nachlassen. und dann ist das schon Attraktiv im vergleich zu ner 780er. Zudem ist über das Übertaktungspotenzial nur eine Analogie möglich - echte Werte gibt es nicht. Daher ist alles nichts sagend. Und selbst diese 18% Bilder sagen halt null aus.
 
Doch sie sagen aus das sie 18% Schneller sind ^^
Die 800 ist sicher schön und gut abe der vorteil wie du sagtest die 700 wird früher oder später billiger ^^
 
CPUs (ob x86 oder RISC), GPUs sprechen genau die selbe Sprache: Binary Instructions.
Abhängig von der jeweiligen Architektur gibt es große Unterschiede im Instruction Set und bei der grundsätzlichen Art und Weise wie bestimmte Intsruktionen verarbeitet werden. Wenn man jetzt die High Level Language Ebene betrachtet, dann entwickelt man z.B. in C# oder C++ und fügt entsprechende tags in den Code, die dem Compiler sagen das bestimmte Instruktionen von der GPU berechnet werden sollen und andere von der CPU (das bietet z.B. Cuda). Die tags alleine reichen nicht aus damit Instruktionen effizient verarbeitet werden können. Bei GPUs muss man genau sagen welche Berechnungen auf welchem SM und mit wievielen Threads laufen sollen. Wobei dies aktuell wahlweise auch ein Compiler machen kann, mit vielleicht etwas schlechteren Ergebnissen als bei einer händischen Optimierung.
Gut, schon mal überlegt das KEIN entwickler auf die idee kommen dürfte x86 effizienten code in OpenCL/CUDA zu übernehmen, oder gar mitten im Programm einfach so zu wechseln?


Warum muss ich 2 mal kompilieren? Und auch wenn ich 10 mal kompilieren müsste, passiert dies nicht zu Laufzeit und spielt damit keine Rolle.
Soweit mir bekannt ist, werden OpenCL, OpenGL, DX und CUDA alle zur Laufzeit für die entsprechende Karte kompiliert, es spielt also durchaus eine rolle ob da nun einmal oder mehrmals Kompiliert werden muss.
sämtliche .Net Sprachen und auch Java werden alle zur Laufzeit Kompiliert, bzw. 'Just in Time', da muss auch für jede Architektur gearbeitet werden. normalerweise spielt das keine rolle, wenn du aber 60 mal die Sekunde irgendwas kompilieren musst, dann summiert sich das ganz schnell.
 
Gut, schon mal überlegt das KEIN entwickler auf die idee kommen dürfte x86 effizienten code in OpenCL/CUDA zu übernehmen, oder gar mitten im Programm einfach so zu wechseln?

Nein, das ist quasi immer der Fall!
Jedes programmierte Spiel hat Teile für die CPU und für die GPU. Bestimmte Module befassen sich mit z.B. Physik, Zustandsveränderungen wie Tag-/Nachtwechsel etc. Je nachdem welcher Teil davon gebraucht wird, werden entweder Teile für die GPU benutzt oder halt für CPU. Im Idealfall hat man beides, dann muss aber das Multithreading entsprechend gut optimiert sein.

Um Mischcode auszuführen gibt es für CUDA verschiedene Interpreter.


Soweit mir bekannt ist, werden OpenCL, OpenGL, DX und CUDA alle zur Laufzeit für die entsprechende Karte kompiliert, es spielt also durchaus eine rolle ob da nun einmal oder mehrmals Kompiliert werden muss.
sämtliche .Net Sprachen und auch Java werden alle zur Laufzeit Kompiliert, bzw. 'Just in Time', da muss auch für jede Architektur gearbeitet werden. normalerweise spielt das keine rolle, wenn du aber 60 mal die Sekunde irgendwas kompilieren musst, dann summiert sich das ganz schnell.

Diesbezüglich kam bei Golem frisch ein Artikel.
Quelle:
Project Denver: Nvidias K1 mit 64 Bit optimiert ARM-Programme selbst - Golem.de

Kurz zusammengefasst steht darin, dass ich ein ARM-Prozessor aus "Projekt Denver" seine ARM-Programme (Apps) selbst optimiert. Dafür zwackt er sich 128 MB aus dem Hauptspeicher und legt dort die benötigten Programme ab. Anschließend übersetzt er sie sich selbstständig. Es folgt sortieren/organisieren und wieder ablegen, bis man die Sache erneut braucht. Man muss also nicht wie von dir angenommen immer wieder dasselbe kompilieren.

Ähnlich habe ich es kürzlich geschrieben. Nur hat Nvidia da noch eine Menge Finesse reingepackt.
 
Zuletzt bearbeitet von einem Moderator:
Gut, schon mal überlegt das KEIN entwickler auf die idee kommen dürfte x86 effizienten code in OpenCL/CUDA zu übernehmen, oder gar mitten im Programm einfach so zu wechseln?
Um es kurz zu machen: Natürlich werden sowohl CPU als GPU genutzt und genau das bietet OpenCL, Cuda usw.
Nicht alle Berechnungen die durchgeführt werden (auch bei Games) sind hochgradig parallelisierbar und nur dann kann die GPU ihre Stärke ausspielen. Die Aufteilung von bestimmten Aufgaben für die CPU und GPU über Cuda ist einer der wichtigsten Argumente für diese Technologie.

Soweit mir bekannt ist, werden OpenCL, OpenGL, DX und CUDA alle zur Laufzeit für die entsprechende Karte kompiliert, es spielt also durchaus eine rolle ob da nun einmal oder mehrmals Kompiliert werden muss.
sämtliche .Net Sprachen und auch Java werden alle zur Laufzeit Kompiliert, bzw. 'Just in Time', da muss auch für jede Architektur gearbeitet werden. normalerweise spielt das keine rolle, wenn du aber 60 mal die Sekunde irgendwas kompilieren musst, dann summiert sich das ganz schnell.

Java baut auf einem ganz anderen Ansatz auf als Sprachen die einen Compiler spezifisch für eine bestimmte Architektur nutzen. Java nutzt eine Virtual Machine die du dir erstmal anschauen solltest... (durch die VM kann ein Java Code auf unterschiedlichen Plattformen ausgeführt werden, ohne das er spezifisch für bestimmte Plattformen optimiert/compiled werden muss)

Cuda bzw. C#, C++ usw. (wobei Cuda nochmal etwas hardware näher ist) nutzen Compiler die den High Level Code spezifisch für eine bestimmte Architektur, in binäre Instruktionen übersetzen. Dies passiert einmal und nicht zur Laufzeit! Der daraus resultierende binäre Code kann dann von GPU/CPU ausgeführt werden. So optimiert man die Ausführung für eine bestimmte Architektur. Ein bereits kompilierter Code muss nicht zur Laufzeit erneut kompiliert werden, dies würde keinen Sinn ergeben. Ein binärer code kann natürlich von einem hardware scheduler optimiert werden (x86 typisch) oder auch vom Treiber einer GPU. Das hat aber nichts mit erneutem kompilieren zu tun. So wird dann z.B. die Ausführungsreihenfolge verändert oder bestimmte Instruktionen zusammengefasst da man sie in einem Taktzyklus berechnen kann.
 
Zuletzt bearbeitet:
Dazu hätte ich mal ne Frage: Graphen....ist ja ín aller Munde seit ein paar Jahren. Siehst du da wirklich "echtes" Potenzial drin für die sagen wir nächsten 5-10 Jahre oder wird das erstens, viel länger dauern (wenn überhaupt da mal was zur Anwendung draus wird) oder zweitens sind das nur Wunschvorstellungen.
Graphen wird wohl die Welt verändern, aber die der Elektronik eher zuletzt. In den nächsten fünf Jahren sollte man generell nicht mit Weltbewegendem rechnen. Zunächst wird es für simplere Dinge genutzt werden, schon heute steckt es in Tennisschlägern. Danach sind zum Beispiel Wasserfilter denkbar. Aber es ist heute noch unbekannt, ob sich das Material überhaupt für CPUs und GPUs gut eignet -- es hat einige Eigenschaften, die in diesem Bereich, sagen wir, rocken würden, aber andere, die sehr ungünstig sind. Nun ist die Frage, ob man das durch Modifizierungen des Materials oder des Produktdesigns aufwiegen kann. Das steht in den Sternen. Keinesfalls würde ich in den nächsten Jahren Kaufentscheidungen von solchen Eventualitäten abhängig machen.
 
Wenn die Game Grafik sich nicht weltbewegend ändert kann man auch in paar Jahren noch mit z.b meiner msi 770 hoch zocken ^^ oder mittel
Also wie ich seit Tagen überlegt habe bzw Nachgedacht habe, es lohnt sich 0 wenn die neue 880 what ever.... 30% Leistung bringen würde... erst mit der 900 Serie würde es sich lohnen, das wäre aktuell nur rausgeschmissenes Geld :/
Oder halt eine 780 Kaufen wenn die wirklich billiger wird ^^ und dann halt Knüppel dann kommt man vielleicht auf das Niveau der 880 ? Falss die 880 die 780 ersetzen soll.
 
Zurück