Nvidia Maxwell: Angeblich Spezifikationen zur GTX 870, + 18 % zur GTX 770 im 3DMark 11

Na ja wenn man nicht einfach immer auf das größte mögliche schaut sondern ein gewisses Budget bei mir sind das 250-350 €uro aufrüstet dann ist das schon jedes mal ganz ok wenn es nötig wird .
Hab jetzt von der 7870 zur 290 aufgerüstet und den Sprung merkt man schon deutlich .
 
Darüber bin ich mir noch nicht wirklich sicher! Es würde zumindest erklären warum die Speicherbandbreite so unterdimensioniert ist. Die Gerüchte halten sich schon seit Monaten. Könnte natürlich auch alles wegen 20nm-Verzögerung auf 2015 verschoben worden sein.
Man munkelt, dass es wie beim GM107 am erhöhten Cache liegen könnte.
Pascal ist mehr die Supercomputingvariante für die Teslas..
Pascal ist der Nachfolger von Maxwell und wird es als Geforce, Quadro und Tesla geben...
Bei dem GTX880-Prototypen war die rechte Hälfte absichtlich verpixelt. Irgendwas wird da auf dem Board sein! Wenn das nicht diese Generation kommt, dann wahrscheinlich 2015
Du willst die nächste Generation unbedingt zwei Mini-Lüfter auf deiner Grafikkarte haben? Siehe unsere News: Nvidia Maxwell: Angebliche Bilder der Geforce GTX 880 aufgetaucht
 
Darüber bin ich mir noch nicht wirklich sicher! Es würde zumindest erklären warum die Speicherbandbreite so unterdimensioniert ist. Die Gerüchte halten sich schon seit Monaten. Könnte natürlich auch alles wegen 20nm-Verzögerung auf 2015 verschoben worden sein.
Und wie genau sollen ARM-Cores an der Speicherbandbreite sparen können?
Und wie genau sollen sie ebenso den Overhead senken, wie Mantle?

Irgendwas wird da auf dem Board sein! Wenn das nicht diese Generation kommt, dann wahrscheinlich 2015.
Zwei schwarze Kühler.
 
Man munkelt, dass es wie beim GM107 am erhöhten Cache liegen könnte.

Bei den kleineren Modellen glaube ich das sogar. Aber waren bei Kepler die großen Karten nicht ebenfalls mit mehr Cache ausgestattet. Bei GK110 waren es glaube ich 1,5MB Cache. Ein GTX750Ti hat etwa 2MB. Ich weiß nicht ob das alleine ausreicht um die Bandbreitenunterschiede zu erklären.


Pascal ist der Nachfolger von Maxwell und wird es als Geforce, Quadro und Tesla geben...

Ich meinte speziell das Zusatzmodul für "Pascal", das angebunden über NVLINK läuft. Das die ganze Generation ebenso heißt, ist mir ebenfalls klar.


Und wie genau sollen ARM-Cores an der Speicherbandbreite sparen können?

Indem sie die Kommunikation zwischen Grafikkarte und CPU verwalten/verarbeiten. Dadurch hast du weniger Verkehr auf den langsamen Datenleitungen. Das spart letztendlich benötigte Bandbreite ein und ist dennoch schneller.


Und wie genau sollen sie ebenso den Overhead senken, wie Mantle?

Ganz einfach:
Mit einem ARM-Co-Prozessor hast du einen fixen Zugriffspunkt, den man immer direkt ansprechen kann ("to the metal"). Beispielsweise könntest du bestimmte Befehle direkt an den ARM-Core weiterleiten ohne Umwege über Kommunikationsschichten bzw. Treiber zu müssen. Der damit normalerweise verbundene Overhead wird gesenkt und bringt letztendlich mehr Leistung.

Ein anderes Beispiel wären übliche Aufgaben der CPU, die man dann auf der ARM-Seite der Grafikkarte selbst ausführt. Der Hauptprozessor wird entlastet und man befindet sich theoretisch nicht mehr im CPU-Limit.


Zwei schwarze Kühler.

Das es Lüfter sind, ist natürlich möglich. Die Frage wäre nur wofür! Für die Spannungswandler wäre das ein wenig überdimensioniert. Immerhin fehlt der Hauptlüfter über der gezeigten Grafikkarte.
 
Zuletzt bearbeitet von einem Moderator:
Ich halte es so...

Wenn die neue GK doppelt so schnell ist wie die verbaute und um die 300-350€ € Kostet wird gekauft.
Zur Zeit ist es nicht so und mit der 800er Serie wird es wohl nicht die doppelte Leitung meiner Übertakteten 670GTX für 300 € gegeben

Somit warten auf Fallende Preise oder neue Generationen.
 
Hat der maxwell jetzt wirklich weniger, aber bessere shadereinheiteiten oder is die chipfläche gleich groß?
Weil sonst wär na noch genug Raum für dicke 880 TIs
bzw ne Titan II.

Ich keine Angst, das der Leistungssprung zu klein wird.
Wenn die Effizienz wirklich so gut ist wird sicher massig OCt bzw man kann ohne schlechtes Gewissen sli fahren.:daumen:
 
Bei den kleineren Modellen glaube ich das sogar. Aber waren bei Kepler die großen Karten nicht ebenfalls mit mehr Cache ausgestattet. Bei GK110 waren es glaube ich 1,5MB Cache. Ein GTX750Ti hat etwa 2MB. Ich weiß nicht ob das alleine ausreicht um die Bandbreitenunterschiede zu erklären.
Du siehst doch sofort wie fett die Relation ist.
Das eine Ding ist ein Monster mit über 2000 ALUs und das andere ein kleiner Chip mit weniger als 700.
2MB Cache für das Ding sprengt auf jeden Fall alles, was bisher verbaut wurde, relativ gesehen.
Ich denke zwar nicht das nicht Nvidia den Cache bei größeren GPUs linear skalieren wird, da ich denke das frisst zuviel Platz, aber wenn da noch ein paar MB dazu kommen, sollte es ähnlich helfen.

Indem sie die Kommunikation zwischen Grafikkarte und CPU verwalten/verarbeiten. Dadurch hast du weniger Verkehr auf den langsamen Datenleitungen. Das spart letztendlich Bandbreite ein und ist dennoch schneller.
Also an welcher Bandbreite sparen sie?
Die Kommunikation findet durch PCIe statt, was könnte der ARM-Chip also dort sparen und dennoch schneller sein?

Ganz einfach:
Mit einem ARM-Co-Prozessor hast du einen fixen Zugriffspunkt, den man immer direkt ansprechen kann ("to the metal"). Beispielsweise könntest du bestimmte Befehle direkt an den ARM-Core weiterleiten ohne Umwege über Kommunikationsschichten bzw. Treiber zu müssen. Der damit verbundene Overhead wird gesenkt und bringt letztendlich mehr Leistung.

Ein anderes Beispiel wären übliche Aufgaben der CPU, die man dann auf der Grafikkarte selbst ausführt. Der Hauptprozessor wird entlastet und man befindet sich theoretisch nicht mehr im CPU-Limit.
Welche Befehle z.B?
Was könnte man bypassen?

Ich lege mal meine Laiensicht dar, die Application verwendet DX als Interface, wir haben eine x86 Host CPU und der Code ist entsprechend für die Maschinensprache übersetzt.
Also wo kann sich da ein ARM-Chip logisch einschalten und wie Mantle Overhead zu reduzieren, wo der gesamte Renderer speziell dafür angepasst ist?
Einfache Antwort, natürlich gar nicht.

Also sprechen wir höchstens von etwas weniger Overhead bei irgendeiner Verwaltungsaufgabe.

Das es Lüfter sind ist natürlich möglich. Die Frage wäre nur wofür! Für die Spannungswandler wäre das ein wenig überdimensioniert. Immerhin fehlt der Hauptlüfter über der gezeigten Grafikkarte.
Ist mir ehrlich gesagt vollkommen egal wofür, da ich keine Magic dahinter spekuliere.
 
Ob der Wechsel von meiner GTX 580 lohnt? :D Wollt ja bis zu den besseren Modellen in 2015 warten, aber Oculus Rift Dk2 trudelt bald ein. :ugly:
 
Du siehst doch sofort wie fett die Relation ist.
Das eine Ding ist ein Monster mit über 2000 ALUs und das andere ein kleiner Chip mit weniger als 700.
2MB Cache für das Ding sprengt auf jeden Fall alles, was bisher verbaut wurde, relativ gesehen.
Ich denke zwar nicht das nicht Nvidia den Cache bei größeren GPUs linear skalieren wird, da ich denke das frisst zuviel Platz, aber wenn da noch ein paar MB dazu kommen, sollte es ähnlich helfen.

Also für eine High-Endkarte wie deine GTX*70/*80 muss Nvidia mindestens den bisherigen Cache verdoppeln. DAs wären dann mindestens 3MB Cache für die großen Brummer. Immerhin benötigen sie mehr Bandbreite wie eine kleine Einstiegskarte à la GTX750.


Also an welcher Bandbreite sparen sie?
Die Kommunikation findet durch PCIe statt, was könnte der ARM-Chip also dort sparen und dennoch schneller sein?

Angenommen ein verbauter ARM-Chip verarbeitet Daten, die über den PCIe-Bus übermittelt werden und vermittelt diese dann anschließend innerhalb der Grafikkarte. Gleichzeitig können weitere Sätze von der CPU angefordert werden.

Die Verarbeitung läuft innerhalb der Grafikkarte, deren interne Leitungen schneller sind als über den langsamen Weg zu CPU/Arbeitsspeicher und zurück. Damit wird der limitierte PCIe-Bus nicht so stark belastet und es werden nur die Datensätze angefordert, die die Grafikkarte wirklich braucht.


Welche Befehle z.B?
Was könnte man bypassen?

Die Art der Befehle kann man im Vorfeld im ARM-Chip definieren. In einem Spiel bräuchte nur eine bestimmte Funktion aufgerufen werden. Der ARM-Chip erkennt diese dann und führt sie direkt aus. Man umgeht damit die abstrakten Schichten im Betriebssystem wie Treiber und anderen Kommunikationsschichten im Betriebssystem, die für die Verwaltung Overhead erzeugen.

Im Prinzip wäre das nichts anderes als ein Low-Level-Zugriff, direkt auf die Hardware. Anders als bei Mantle bräuchte Nvidia dafür keine extra API, sondern könnte das direkt über CUDA regeln. Entwickler hätten dann direkten Zugriff mit minimalem Codeaufwand.


Ich lege mal meine Laiensicht dar, die Application verwendet DX als Interface, wir haben eine x86 Host CPU und der Code ist entsprechend für die Maschinensprache übersetzt.
Also wo kann sich da ein ARM-Chip logisch einschalten und wie Mantle Overhead zu reduzieren, wo der gesamte Renderer speziell dafür angepasst ist?
Einfache Antwort, natürlich gar nicht.

Das stimmt so nicht! Eine CPU kann nur eine bestimmte Anzahl an Code gleichzeitig übersetzen. Irgendwo ist dafür das (CPU-)limt. Die CPU kann einfach nicht mehr abarbeiten. Die Grafikkarte könnte theoretisch mehr leisten, bekommt aber nicht genug Daten von der CPU geschaufelt.

Hier schaltet man dann einen ARM-Co-Prozessor dazwischen, der die CPU bei ihren Aufgaben unterstützt und somit Last reduziert. Der Rest ist wie oben schon beschrieben. Direkter Zugriff von Programmebene auf die Hardware ohne den langen weg über DX-Schnittstelle -> Betriebssystem -> Bus-/RAM-> CPU -> Bus/PCI-Express -> Grafikkarte.

Beispielsweise hättest du dann stark vereinfacht:
Programm --> CUDA --> Grafikkarte (ARM) mit Direktweg über den schnellsten Bus. Spart dir Verwaltung = Overhead => schneller!

Eine GTX870 wäre mit ARM-Chip wesentlich schneller als ohne! Die Frage wäre jedoch, ob und wie sich das auch auf synthetische Benchmarks auswirkt.


Ist mir ehrlich gesagt vollkommen egal wofür, da ich keine Magic dahinter spekuliere.

Spielt letztendlich auch keine Rolle wofür, denn als Gamer bekommt man davon eh nichts mit außer vielleicht mehr FPS oder zusätzlicher Effekte. Maxwell ist angeblich die erste Generation mit ARM-Chip. Ungeklärt ist noch, ob NVidia es in der ersten Generation (also GTX870+) einsetzt, oder erst bei den Nachfolgern in 2015.
 
Ob der Wechsel von meiner GTX 580 lohnt? :D Wollt ja bis zu den besseren Modellen in 2015 warten, aber Oculus Rift Dk2 trudelt bald ein. :ugly:
Lohnen?! Sagen wir es mal so: Du gewinnst unter 100% Performance dazu, dafür dürfte die Leistungsaufnahme aber signifikant sinken!
Ob das ein guter Tradeoff für dich ist, musst du selber entscheiden, der alten Faustregel (100% Performancegewinn= aufrüsten) handelst du damit allerdings zuwider!
Das liegt aber hauptsächlich daran, dass die 870 mehrere Leistungsaufnahmeklassen unter deiner 580 liegen wird---> willst du also eh in Zukunft eine andere Klasse an Grafikkarten einsetzten, dann kannst du das machen...
 
Glaubt ihr das die 780/Ti Preise dann fallen werden? Oo

Oder besser gefragt, wird die Leistung noch viel mehr Steigen können? Weil 18% klingen ja ziemlich wenig irgendwie :/
 
Hoffentlich ist die 880 nur 5-10% schneller als die 780TI :Devil:

Dann brauch ich mir hoffentlich keine Gedanken machen xD.

Yeh wir pfeiffen auf den Fortschritt damit ich mich besser fuehle!

Irgendwie gefaellt mir deine Einstellung so gar nicht.


Glaubt ihr das die 780/Ti Preise dann fallen werden? Oo

Oder besser gefragt, wird die Leistung noch viel mehr Steigen können? Weil 18% klingen ja ziemlich wenig irgendwie :/
Die Preise sind doch wegen neuer Generationen noch nie drastisch gefallen.
Minimal und dann wird die alte Generation nach und nach aus den Regalen verschwinden.
 
Wenn der Screen echt sein sollte, sehe ich schwarz. Dann wäre eine GTX 880 nichtmal so schnell wie eine 780TI, maximal genau so schnell (Vermutlich). Effizienz hin oder her. Ich hatte gehofft das die 880 min 10% mit Stock Takt schneller wird als die 780ti und wollte dann wieder auf Nvidia umsteigen. Aber wenn es so kommt wie der Screen es andeutet, wäre ich schon enttäuscht.
 
Glaubt ihr das die 780/Ti Preise dann fallen werden? Oo

Oder besser gefragt, wird die Leistung noch viel mehr Steigen können? Weil 18% klingen ja ziemlich wenig irgendwie :/

Vor einem Jahr kam eine GK mit ca 20% Mehrleistung und alle haben Hurra geschrien und manchen war es sogar 1000€ wert. Also ich verstehe die Aufregung hier nicht. Seid froh wenndie 20% mehr diesmal "nur" 650€ kosten ?
 
Das stimmt so nicht! Eine CPU kann nur eine bestimmte Anzahl an Code gleichzeitig übersetzen. Irgendwo ist dafür das (CPU-)limt. Die CPU kann einfach nicht mehr abarbeiten. Die Grafikkarte könnte theoretisch mehr leisten, bekommt aber nicht genug Daten von der CPU geschaufelt.

Hier schaltet man dann einen ARM-Co-Prozessor dazwischen, der die CPU bei ihren Aufgaben unterstützt und somit Last reduziert. Der Rest ist wie oben schon beschrieben. Direkter Zugriff von Programmebene auf die Hardware ohne den langen weg über DX-Schnittstelle -> Betriebssystem -> Bus-/RAM-> CPU -> Bus/PCI-Express -> Grafikkarte.

Beispielsweise hättest du dann stark vereinfacht:
Programm --> CUDA --> Grafikkarte (ARM) mit Direktweg über den schnellsten Bus. Spart dir Verwaltung = Overhead => schneller!

Eine GTX870 wäre mit ARM-Chip wesentlich schneller als ohne! Die Frage wäre jedoch, ob und wie sich das auch auf synthetische Benchmarks auswirkt.
Schon mal überlegt das die ARM Cores massivWeniger Leistung haben als die hautp-CPU?
Bei DX ist das haupt problem aktuell ja das nur ein CPU Kern daten an die CPU senden kann, da hilft dann auch kein ARM kern auf der GPU.
Die einzige aufgabe die ich mir vorstellen könnte, wäre das Kompilieren von Shadercode, da könnte man mit nem optimierten ARM Core wohl mit nem x86 mithalten.

NV's Problem ist doch das Sie keine x86 lizenz haben. Deshalb versuchen Sie nun die APU's mit ARM Kernen zu mache, wie schon bei Tegra. Dadurch kann die Grafikkarte auf einem Entsprechenden Board als hauptrecheneinheit arbeiten, für uns Spieler bringt der ARM Core dann aber genau gar nichts.
 
Spielt letztendlich auch keine Rolle wofür, denn als Gamer bekommt man davon eh nichts mit außer vielleicht mehr FPS oder zusätzlicher Effekte. Maxwell ist angeblich die erste Generation mit ARM-Chip. Ungeklärt ist noch, ob NVidia es in der ersten Generation (also GTX870+) einsetzt, oder erst bei den Nachfolgern in 2015.

Ich klatsch dir jetzt einfach diesen Link hier vor die Nase:
http://extreme.pcgameshardware.de/grafikkarten/13196-grafikkarten-bilder-thread-300.html#post5122318

Den Rest kannst du dir selber denken ;) *Pssst Spannungswandler*

18% mehr? Irgendwie schwach, selbst für die aktuelle Zeit.
selbst 800-1000mm^2 CHips sind ja in 28nm längst nicht mehr unbezahlbar. Mal schauen was und Wann AMD die Konter bringt.

Theoretisches Limit bei TSMC ist aktuell 650mm², mehr schaffen die Masken derzeit nur sehr schwer. Die größten Chips lieferte bisher Intel mit knapp 700mm² (Knights Ferry).

Bis 600mm² halte ich beim GM200 für möglich.

Sonst sind die ca. 18% vollkommen ok. Salvage des kommenden performance Chips (GM204) knackt den Salvage des aktuellen highend Chips (GK110).

Mit 16 oder 17 Clustern a 128 Einheiten (auch 18 Cluster wären theoretisch möglich) bei 1GHz wird auch die 780Ti fallen.

Ich denke es wird langsam Zeit für massive Verbesserugen an den Platinen und wie berechnet wird.
Am Platinendesign (anzahl chips, aufgaben) lässt sich sicher was drehen. Wenn es mit der CHipgrösse nicht mehr aufwärts geht, müssen eben mehr chips auf eine Platine. Früher war SFR ja eine möglichkeit, wird heute nicht mehr angeboten, AFR ist bei mehr als 3 CHips trotz guter Skalierung nicht geeignet.

Mit Mantle besteht das erste mal seit langem ne brauchbare möglichkeit Mehrere GPU's auf Engine ebene für die Berechnung von EINEM Frame zu benutzen. Aber das kann es ja auch nicht sein.
Bin gespannt was in die richtung nach SFR und AFR kommt. Irgendwas ist da auf jedenfall im Busch.

Mehr highend Chips auf einer Platine, also so Schrott wie die R9 295X2 oder Titan Z, die beide auf ihre Art und Weise am Limit kratzen? Ist zumindest nichts für mich, solange wir nur bei AFR hängen bleiben und SFR geht u.a. wegen dem ganzen Post Processing moderner Engines nicht.


 
Ohhhhh entschuldige das man einen Witz gemacht hat. Mal im ernst was stimmt bei euch nicht? Relaxt doch einfach mal meine Güte. Klar fände ich eine Steigerung von 40-50% besser aber was Solls. Hier darf man ja nichts mehr sagen ohne das man direkt gesteinigt wird.


Ausserdem scheint es mir mit den paar % unterschied gar nicht mal so abwegig also wieso sollte ich da beleidigt sein?. Da weiss man dann wenigstens wieso man soviel schotter für die karte gezahlt hat WENNS dann der fall sein sollte.
 
Zuletzt bearbeitet:
Schon mal überlegt das die ARM Cores massivWeniger Leistung haben als die hautp-CPU?
Bei DX ist das haupt problem aktuell ja das nur ein CPU Kern daten an die CPU senden kann, da hilft dann auch kein ARM kern auf der GPU.

Eigentlich nicht! Die ARM-Cores mögen zwar leistungstechnisch schwächer sein, aber als Co-Prozessor sind sie fast schon überdimensioniert. Damit bräuchte die Grafikkarte nicht bei jeder kleinen Berechnung auf die Haupt-CPU zurück zu greifen und den Bus blockieren. DAs würde dann alles innerhalb der Grafikkarte ablaufen, wo die Wege effizienter/schneller sind.

Im Prinzip ist es gesteigerte Parallelisierung und bessere Lastverteilung. Die benötigte Stromaufnahme sollte dabei auch sinken. Eine Grafikkarte oder eine CPU benötigen wesentlich mehr Energie als ein kleiner ARM-Prozessor.


Die einzige aufgabe die ich mir vorstellen könnte, wäre das Kompilieren von Shadercode, da könnte man mit nem optimierten ARM Core wohl mit nem x86 mithalten.

Die Art der Aufgabe dürfte nicht so wichtig sein! Von Physikberechnungen für PhysX über Effekte für Gameworks (z.B. HBAO+) könnte der ARM theoretisch alles abdecken. Natürlich nur bis zu einem gewissen Grad. Jedes bißschen zusätzliche Rechenleistung entlastet CPU/GPU und diese hätten somit mehr Leistung zur Verfügung.


NV's Problem ist doch das Sie keine x86 lizenz haben. Deshalb versuchen Sie nun die APU's mit ARM Kernen zu mache, wie schon bei Tegra. Dadurch kann die Grafikkarte auf einem Entsprechenden Board als hauptrecheneinheit arbeiten, für uns Spieler bringt der ARM Core dann aber genau gar nichts.

In Sachen Parallelisierung ist x86 im Vergleich zu GPUs ineffektiv. Kurz gesagt eine GPU ist x86 in dieser Hinsicht überlegen. Vor ein paar Jahren hätte auch niemand gedacht wie starkt sich allgemein ein ARM-Prozessor entwickeln kann. Selbst Microsoft schafft es mittlerweile eine Windows auf einem ARM-Tablet auszuführen. Das ist dann selbstverständlich kein x86-Code!

Als Schnittstelle hat Nvidia ja bereits CUDA, womit man Code in sämtliche Maschinensprachen übersetzen kann. Die weitere Vorgehensweise müsste dann recht flexibel sein.


Ich klatsch dir jetzt einfach diesen Link hier vor die Nase:
http://extreme.pcgameshardware.de/grafikkarten/13196-grafikkarten-bilder-thread-300.html#post5122318

Den Rest kannst du dir selber denken ;) *Pssst Spannungswandler*

Ja, Danke! Ich weiß, es könnte sich um Lüfter für beispielsweise Spannungswandler handeln. Das Thema mit den onboard-ARM hatte ich nur eingebracht, weil es immer noch hartnäckig im Netz kursiert.

Sowohl von Nvidia als AMD kommt bisher nichts wirklich beeindruckendes. Die R9-285 und die GTX870 sind nach bisherigen Daten nicht so wirklich der Bringer. Es fehlen noch eine Menge Informationen, aber so sieht es aktuell aus.
 
Zurück