Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Mein Posting war anders gemeint. Der fünfzehnte Cluster wird aus Yield-Gründen wohl immer deaktiviert bleiben, aber 12 SMX Cluster, wobei 15 physikalisch vorhanden sind, finde ich zu extrem gespart.
Ich gehe mehr von einer gleichen Konstellation wie bei den Tesla-Karten aus, 13-14 Cluster, 3 GB GDDR5 und höhere Taktraten.
Vielleicht bringen 12 SMX und dafür mehr Takt die bessere Gaming-Leistung? Und Nvidia hätte weniger Chips, die sie als GTX 770 (oder niedriger) noch billiger verkaufen müssten. Könnte ich mir durchaus vorstellen.
Ich bin SCHWER am Überlegen, ob ich mir den Wecker stellen soll oder nicht... Eigentlich kanns nur nen Schuss in den Ofen sein...
Irgendwer wird schon eine Zusammenfassung scheiben :devil:
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Die Yields werden sich wohl seit Anlaufen der GK110-Produktion im Sommer verbessert haben. Mit 14 SMX rechne ich eigentlich fest für eine Geforce, 15 sind dann doch zuviel des Guten. Wenig SMX und mehr Takt macht das Ganze schnell ineffizient - glaube nicht, dass man das macht, wenn man nicht absolut muss.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Ich warte ja schon sehnsüchtig auf die 780 :love:

Die 680 muss dringend ausgetauscht werden :devil:

Ich schau mir das heut NAcht an ^^
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wird sich aber ziemlich sicher nicht lohnen. Die werden wieder 90 Minuten über Tegra reden, um dann mit etwas Glück 5 Minuten was zu GeForce zu sagen. Da wird man aber dann auch nicht mehr erfahren als aus allen möglichen Gerüchten bereits bekannt ist.

Ich bin SCHWER am Überlegen, ob ich mir den Wecker stellen soll oder nicht... Eigentlich kanns nur nen Schuss in den Ofen sein...

Wozu? Ist ja wohl eher nicht so, daß du die Karte dann direkt kaufen könntest... ;)
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wenig SMX und mehr Takt macht das Ganze schnell ineffizient - glaube nicht, dass man das macht, wenn man nicht absolut muss.
Eben nicht immer, siehe HD 7950 vs HD 7970. Die HD 7970 bekommt ihren Vorsprung vor allem durch den Takt bei Spielen, aber vergleichsweise wenig durch die zusätzlichen Shader. Und Big K soll ja noch mehr besitzen, es wäre also ein logischer Schritt.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Eben nicht immer, siehe HD 7950 vs HD 7970. Die HD 7970 bekommt ihren Vorsprung vor allem durch den Takt bei Spielen, aber vergleichsweise wenig durch die zusätzlichen Shader. Und Big K soll ja noch mehr besitzen, es wäre also ein logischer Schritt.

Das lässt sich so doch gar nicht sagen, dazu würden ausführliche Analysen gehören. Vorsicht: Die 7970 hat nur 10% mehr Bandbreite als die 7950 aber 32% mehr Rechenleistung - das bremst schonmal sehr. In Szenarien, die eher von der Rechenleistung limitiert sind, kann die 7970 der 7950 schonmal 25% davonziehen, was nicht zu weit von ihrem 33% Rohleistungsvorteil entfernt ist.

GK110 wird wohl 50% mehr Bandbreite haben als GK104, d.h. hier gibt es schonmal keinen Bremsklotz wie zwischen 7950 und 7970. Mit ineffizient meinte ich die Leistungsaufnahme. Mehr Takt ist soweit ich weiß immer die ineffizientere Lösung, um Leistung zu erzeugen. Lieber ein breiterer Chip und dafür weniger Takt und Spannung. Die Recheneinheiten skalieren noch sehr gut, aber eben nur unter der Voraussetzung, dass die Bandbreite entsprechend mitsteigt.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Naja,ist ja deine Kohle :P
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das sagt einem der gesunde Menschenvestand...

Nvidia bekommts nicht mal gebacken die 14SMX Version kaufbar zu machen für Normalsterbliche "Endkunden" und zajlen dabei >3k€, und selbst die Premium-Kunden bekommen nicht mehr als eben die 14 SMX-Version zu irgend einem nicht bekannten Preis, und du erwartest wirklich ernsthaft die 15SMX-Version in einem Produkt für unter 1k€???

Dreimal kurz gelacht....

Sorry, aber das ist völlig unrealistisch.
:daumen:
Genau.

Die Tesla-Kunden würden sich auch mit Recht ganz schön verschaukelt fühlen... .
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das lässt sich so doch gar nicht sagen, dazu würden ausführliche Analysen gehören. Vorsicht: Die 7970 hat nur 10% mehr Bandbreite als die 7950 aber 32% mehr Rechenleistung - das bremst schonmal sehr. In Szenarien, die eher von der Rechenleistung limitiert sind, kann die 7970 der 7950 schonmal 25% davonziehen, was nicht zu weit von ihrem 33% Rohleistungsvorteil entfernt ist.
Wenn Spiele wirklich so bandbreitenlimitiert wären, wäre die GTX 680 weit, weit abgeschlagen. Das ist sie aber nicht. Sie ist schneller als die HD 7950, deshalb ist das für mich kein Argument.
Mit ineffizient meinte ich die Leistungsaufnahme. Mehr Takt ist soweit ich weiß immer die ineffizientere Lösung, um Leistung zu erzeugen. Lieber ein breiterer Chip und dafür weniger Takt und Spannung. Die Recheneinheiten skalieren noch sehr gut, aber eben nur unter der Voraussetzung, dass die Bandbreite entsprechend mitsteigt.
Entschuldigung aber das ist komplett an den Haaren herbeigezogen, sonst hätte wir alle hier mindestens einen XeonPhi als Prozessor. Man muss immer ein gutes Verhältnis zwischen Takt, Recheneinheiten, Leistung pro Takt und Entwicklungskosten/-zeit finden (und in diesem Fall auch noch Bandbreite). Was nützt mir eine theoretische 4000-Shaderprozessoren-Karte mit 500MHz, wenn effektiv nur 1500 Einheiten ausgelastet werden können? Wenn es so einfach wäre, wäre AMD sicher bei VLIW 5 geblieben und hätte sich nicht die Mühe gemacht, auf VLIW 4 oder gar GCN umzusatteln. Und Nvidia hat auch lange Zeit Hot Clock verwendet.
Takt greift immer, Leistung pro Takt oder gar Cores nicht und darauf will ich eigentlich hinaus. Mehr Cores bedeuten nicht unbedingt mehr Leistung.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wenn Spiele wirklich so bandbreitenlimitiert wären, wäre die GTX 680 weit, weit abgeschlagen. Das ist sie aber nicht. Sie ist schneller als die HD 7950, deshalb ist das für mich kein Argument.
Entschuldigung aber das ist komplett an den Haaren herbeigezogen, sonst hätte wir alle hier mindestens einen XeonPhi als Prozessor. Man muss immer ein gutes Verhältnis zwischen Takt, Recheneinheiten, Leistung pro Takt und Entwicklungskosten/-zeit finden (und in diesem Fall auch noch Bandbreite). Was nützt mir eine theoretische 4000-Shaderprozessoren-Karte mit 500MHz, wenn effektiv nur 1500 Einheiten ausgelastet werden können? Wenn es so einfach wäre, wäre AMD sicher bei VLIW 5 geblieben und hätte sich nicht die Mühe gemacht, auf VLIW 4 oder gar GCN umzusatteln. Und Nvidia hat auch lange Zeit Hot Clock verwendet.
Takt greift immer, Leistung pro Takt oder gar Cores nicht und darauf will ich eigentlich hinaus. Mehr Cores bedeuten nicht unbedingt mehr Leistung.

Das kannst du so nicht sehen, denn es sind unterschiedliche Architekturen. Schau doch mal z.B. bei GK104 die Tests an, die Broly im Luxx gemacht hat. 15% mehr GPU-Takt und 15% mehr VRAM-Takt jeweils alleine bringen vergleichsweise wenig Performance. Aber wenn du beides gleichzeitig erhöhst, schlägt es voll durch:
Geforce GTX 680 (GK104) Speicherbandbreitentest
Eine GPU muss immer ausgewogen sein. Innerhalb einer Architektur kann man viel besser vergleichen. Oftmals liegen die 660 und die 660 Ti gleichauf, denn sie haben zwar unterschiedliche Rechenleistung aber die gleiche Bandbreite. Die GTX680 ist in diesen Fällen um soviel schneller wie sie mehr Bandbreite hat als dieses Duo, nämlich ca. 35% - bei nur 25% mehr Rechenleistung. Siehe den techspot Artikel hier, da gibt es ein halbes Dutzend Fälle, wo das so ist, kannst dir die Zahlen ja mal anschauen:
http://www.techspot.com/review/603-best-graphics-cards/

Und äh, wir sprechen hier über 3D-Grafik, die hochgradig parallelisierbar ist. Du bist mit deinem XeonPhi Beispiel ins Fettnäpfchen getreten, denn:
Was passiert, wenn du einen Dualcore so hoch taktest, dass er die Leistung eines Quadcores erreicht? Wenn du das mit Trockeneis oder Stickstoff hinbekommst, reicht ein Blick auf das Energiemessgerät um einen Herzschlag zu bekommen. Dasselbe lässt sich selbstredend auch auf GPUs übertragen.

Natürlich greift Takt immer (aber wie gesagt nur, wenn die Bandbreite mitspielt), der Punkt ist: Für mehr Takt brauchst du mehr Spannung und das lässt die Leistungsaufnahme explodieren. Das kennst du von jedem OC-Test, und da ist noch nichtmal eine Verifikation dabei, dass alle GPUs in allen Situationen fehlerfrei laufen. Es ist immer ein Balanceakt zwischen Fläche (mehr Einheiten) und Leistungsaufnahme (hoher Takt).
Der Hotclock von Fermi ist doch ein prima Beispiel, was meine Aussage belegt. Sie haben den hohen Takt aufgegeben und stattdessen mehr Einheiten draufgepackt, weil das energieeffizienter ist. Eine mit 1024SP@1500 MHz hätte mit absoluter Sicherheit mehr verbraucht als es die GTX 680 in ihrer tatsächlichen Form tut.

Wenn das Scheduling stimmt, skalieren mehr Recheneinheiten sehr gut. Ich such mal nach einem Beispiel.

Edit: Gefunden. Vergleich mal die GTX 650 Ti mit der GTX 680. Die 650 Ti ist von den Einheiten her exakt eine halbe GTX 680. Die GTX 680 taktet 10% höher, aber soviel ist das nun nicht. Wenn man sich die Performance anschaut, ist die GTX 680 überall ziemlich genau doppelt so schnell, sogar einen Tick schneller, d.h. die Leistung skaliert fast perfekt mit der Einheitenzahl - im Schnitt, nicht in einzelnen Fällen. Die 680 hat wohlgemerkt auch die doppelte Speicherbandbreite, um dies zu ermöglichen.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/6/
+125% fps, heißt das bisschen Mehrtakt UND die Einheiten skalieren beide perfekt.

Auch bei AMD gibt es dieses Beispiel. Die 7870 ist eine doppelte 7770 und performt ca. 90% besser bei exakt gleichem Takt. Also auch hier perfekte Skalierung mit den Einheiten.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das kannst du so nicht sehen, denn es sind unterschiedliche Architekturen. Schau doch mal z.B. bei GK104 die Tests an, die Broly im Luxx gemacht hat. 15% mehr GPU-Takt und 15% mehr VRAM-Takt jeweils alleine bringen vergleichsweise wenig Performance. Aber wenn du beides gleichzeitig erhöhst, schlägt es voll durch:
Geforce GTX 680 (GK104) Speicherbandbreitentest
Eine GPU muss immer ausgewogen sein. Innerhalb einer Architektur kann man viel besser vergleichen. Oftmals liegen die 660 und die 660 Ti gleichauf, denn sie haben zwar unterschiedliche Rechenleistung aber die gleiche Bandbreite. Die GTX680 ist in diesen Fällen um soviel schneller wie sie mehr Bandbreite hat als dieses Duo, nämlich ca. 35% - bei nur 25% mehr Rechenleistung. Siehe den techspot Artikel hier, da gibt es ein halbes Dutzend Fälle, wo das so ist, kannst dir die Zahlen ja mal anschauen:
The Best Graphics Cards: Nvidia vs. AMD Current-Gen Comparison - TechSpot
Wie schon in der Einleitung der Benchmarks steht:
Die GTX 680 (und auch andere Keplerkarten) skaliert mit Speicher-OC auffällig stark, anders als noch die GTX 580 oder Radeon HD 7970/7950/7870. Man könnte daher von einem Bandbreitenlimit sprechen. Dazu habe ich (auch auf interesse von @Boxleitnerb) einige Benchmarks durchgeführt.
Der Speicher wird, so weit ich weiß, weder von AMD, noch von Nvidia selbst hergestellt und die Anbindung wird wahrscheinlich auch nicht so unterschiedlich sein. Man kann streng genommen nicht einmal innerhalb einer Generation und Architektur sagen, ob das jetzt vergleichbar ist oder nicht. Aber so viele Unterschiede, wie in der GPU selbst wird es nicht geben, selbst wenn man noch Treiber und Speichermagagement dazunimmt.
Und dass Nvidia plötzlich seit dieser Generation deutlich weniger Bandbreite braucht, ohne es irgendwie anzupreisen... Entweder das, oder AMD hat in Spielen einen Überschuss an Bandbreite, weil sie z.B. für bestimmte Computing-Aufgaben gebraucht wird.
Was passiert, wenn du einen Dualcore so hoch taktest, dass er die Leistung eines Quadcores erreicht? Wenn du das mit Trockeneis oder Stickstoff hinbekommst, reicht ein Blick auf das Energiemessgerät um einen Herzschlag zu bekommen. Dasselbe lässt sich selbstredend auch auf GPUs übertragen.
Wenn du mit solchen Methoden kühlst, steigt der Stromverbrauch deutlich weniger an, als du erwarten würdest. Die Leckstöme und Widerstände werden nämlich geringer bei extremen Temperaturen. Wo bin ich in einem Fettnäpfchen? Bzw. wieso haben wir keine niedrig taktenden Manycore-Architekturen in unseren PCs?
Natürlich greift Takt immer (aber wie gesagt nur, wenn die Bandbreite mitspielt), der Punkt ist: Für mehr Takt brauchst du mehr Spannung und das lässt die Leistungsaufnahme explodieren.
Die Leistungsaufnahme steigt mit der Spannung zu Quadrat, schneller schaltende Einheiten verbrauchen auch so etwas mehr (das ist aber meistens zu vernachlässigen). Du solltest aber auch bedenken, dass mehr Einheiten auch mehr Spannung benötigen und dass es logischerweise auch mehr Einheiten gibt, die gleichzeitig schalten. Dass viele Einheiten viel Spannung und Strom im Allgemeinen brauchen, kannst du selbst nachsehen, wenn du mal in deinen eigenen PC blickst.
Gefunden. Vergleich mal die GTX 650 Ti mit der GTX 680. Die 650 Ti ist von den Einheiten her exakt eine halbe GTX 680. Die GTX 680 taktet 10% höher, aber soviel ist das nun nicht. Wenn man sich die Performance anschaut, ist die GTX 680 überall ziemlich genau doppelt so schnell, sogar einen Tick schneller, d.h. die Leistung skaliert fast perfekt mit der Einheitenzahl - im Schnitt, nicht in einzelnen Fällen. Die 680 hat wohlgemerkt auch die doppelte Speicherbandbreite, um dies zu ermöglichen.
Deine ursprüngliche Meinung war, dass die HD 7950 von der Bandbreite limitiert wird (werden kann). Was das jetzt mit einem Beweis zu tun haben soll, dass man sowohl Bandbreite, als auch Rechenleistung braucht, ist mir schleierhaft. Du hast den Beweis geliefert, dass die GTX 680 ein ausgewogenes Produkt ist, was diese beiden Faktoren betrifft. Das will ich auch in keiner Weise abstreiten. Ich habe gesagt bzw. geschrieben, dass die HD 7950 gegenüber der GTX 680 eine irre Bandbreite hat (im Vergleich zur gebotenen Leistung). Ergo Überschuss an Bandbreite bei AMD oder Nvidia kann zaubern, weil sie jetzt plötzlich weniger brauchen. Die GTX 580 hat ja genau so viel, wie die GTX 680 aber weniger Rechenleistung in Spielen. Mit anderen Worten: die HD 7950 kann gar nicht so Bandbreitenlimitiert sein.
GK110 wird wohl 50% mehr Bandbreite haben als GK104, d.h. hier gibt es schonmal keinen Bremsklotz wie zwischen 7950 und 7970.
50% mehr Bandbreite = Radeon HD 7970 GHz Edition.
Und die Rechenleistung bei Big K sollte ja auch steigen. Wie gesagt, Bandbreitenlimitierung ist bei der HD 79x0 für mich kein Argument.
Wenn das Scheduling stimmt, skalieren mehr Recheneinheiten sehr gut. Ich such mal nach einem Beispiel.
Genau, wenn es stimmt. Bei Takt stellt sich nicht die Frage nach der Situation (wenn wir mal Bandbreite ausen vor lassen :schief:).
Auch Einheitenzahlen kann man nicht ewig in die Höhe treiben, weil man auch hier mehr Spannung braucht und das Problem der Auslastung mit steigender Zahl immer schwerer wird. Bzw. die zusätzliche Leistung durch mehr Einheiten wird immer geringer -> Amdahlsches Gesetz.
Der Hotclock von Fermi ist doch ein prima Beispiel, was meine Aussage belegt. Sie haben den hohen Takt aufgegeben und stattdessen mehr Einheiten draufgepackt, weil das energieeffizienter ist. Eine mit 1024SP@1500 MHz hätte mit absoluter Sicherheit mehr verbraucht als es die GTX 680 in ihrer tatsächlichen Form tut.
Bis dorthin scheint er sich gelohnt zu haben, sonst hätten sie es nicht gemacht.
Die Kerne von Kepler sind weniger Komplex, als die von Fermi -> Stromersparnis Kepler
Die GPU von Kepler ist allgemein höher getaktet -> Stromersparnis Fermi
Die Shader haben doppelten Takt bei Fermi -> Stromersparnis Kepler
Die Einheiten haben sich verdreifacht -> Stromersparnis Fermi
Die Fertigung ist eine andere -> Stromersparnis Kepler
usw.
So leicht, alles auf den Takt zu schieben, geht es leider nicht.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Lese doch nochmal, was ich geschrieben habe:
Die HD7970 ist ggü. der HD7950 oft bandbreitenlimitiert, weshalb sie dann nicht 33% schneller ist, wie ihre Rechenleistung vermuten lassen würde, sondern eben nur 15-20% im Schnitt. Einen weiterreichenden Vergleich kannst du gar nicht machen, weder mit Fermi noch mit Kepler. Es geht hier nicht um die Anbindung, es geht darum, wie effizient eine GPU mit Rohleistung und Bandbreite umgeht. Da spielen Register, Caches und Verwaltungsalgorithmen eine Rolle. So wie es aussieht, geht Nvidia mit Rohleistung, sei es Rechenleistung oder Bandbreite, effizienter um als AMD es bei ihren GPUs tut. Deshalb ist die 680 trotz weniger Bandbreite schneller als die 7950.

Bzgl. des Taktes ist eigentlich alles gesagt worden, das ist auch sofort einleuchtend. Natürlich braucht ein größerer Chip auch etwas mehr Spannung, aber es ist ja nicht so, dass die GPUs mit so riesigen Taktreserven ausgestattet sind, um darüberliegende größere GPUs überflüssig zu machen. Bis zu einem gewissen Punkt steigt die Leistungsaufnahme mit dem Takt linear, da keine Spannungserhöhung benötigt wird, aber dann macht die Kurve einen Knick und der Verbrauch steigt überproportional an. Und in dem Bereich will sich ein vernünftig denkender Mensch, der den Arbeitspunkt von Millionen GPUs unter Garantie wählen muss, nicht befinden. Es ist mir unverständlich, warum das für dich nicht einleuchtend ist.

Wir HABEN übrigens eine ManyCore-Architektur in unserem PC, nämlich unsere Grafikkarten. Wir sind bei Grafikberechnung, nicht bei Wald-und Wiesenworkloads. Der Vergleich mit CPUs bzgl. der Parallelisierung ist total absurd. Ich habe dir ja an zwei Beispielen gezeigt, dass die Skalierung mit mehr Einheiten hervorragend ist bei GPUs. Das Ergebnis würdest du mit doppelt so hoch getakteten 650 Ti's oder 7700 niemals bei derselben TDP erreichen. Irgendwo wird der Ertrag sicher abnehmen, aber da sind wir noch lange nicht. Bei 2 Mio Pixeln und nur 2000 ALUs wird es immer etwas geben, wo man mit perfekter Einheitenskalierung dran rechnen kann, solange die Einheiten gefüttert werden.

50% mehr Bandbreite = Radeon HD 7970 GHz Edition.
Ja ist die 7970 GHz Edition denn im Schnitt 33% (Rechenleistung) - 50% (Bandbreite) schneller als die GTX 680? Nicht dass ich wüsste, es sind im Schnitt 15%. Nochmal: Du kannst Architekturen bzgl. Limits nicht vergleichen, das geht so nicht.

Wenn eine GTX 780@GK110 40-50% mehr Rechenleistung durch mehr Einheiten und weniger Takt bekommt und dazu 40-50% Bandbreite, wird sie auch 40-50% schneller sein als die GTX680, das ist völlig absehbar.
GK110@15 SMX@ 750 MHz würde weniger verbrauchen als GK110@12 SMX@ 937.5 MHz (25% mehr Takt). Evtl. sogar deutlich weniger.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Weil es sehr leicht ist eine 680 an ihre Grenze zu bringen und man einfach mehr Leistung haben will.

Mit was bringst du denn eine 680 an ihre Grenzen?
Würd mich interessieren, ich bin am überlegen ob ich mir eine 680 kauf oder bis zur 780 warte.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Die Leckstöme und Widerstände werden nämlich geringer bei extremen Temperaturen.
Nicht bei Halbleitern!;) Da sinkt der Widerstand mit steigender Temperatur - Deswegen werden bei hoher Temperatur und hoher Spannung die Prozzis/GPUs ja durch zuviel Stromstärke zerstört, während sie bei flüssigem Stickstoff überleben. ;)
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

@ Placebo & boxleitenerb: Was ihr scheinbar vergessen habt, ist das Frontend/Triangle-Setup. Das spielt auch eine Rolle dabei, ob eine Grafikkarte ihre Rohleistung umsetzen kann. Ich glaube auch, dass das vielmehr der Hauptgrund dafür ist, warum die HD 7970 normalerweise ihre Rohleistung nicht so gut "auf die Straße bringt" und dementsprechend bei gleichem Takt nicht so viel schneller als einen HD 7950 ist, wie sie vielleicht theoretisch sein könnte.
Deshalb hält die GTX 680 in normalen Auflösungen ja auch noch so gut mit der HD 7970 GHz Edition mit. Unter 4k sähe das ganz anders aus. Da wäre die GTX 680 ziemlich abgeschlagen.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Die TPD von K20X beträgt 235 Watt und das Ding hat 14 SMX = 2.688 ALUs, 250 Gb/s und 6 Gb GDDR5.
Jetzt verbaue 3 GB GDDR5 und du hast deine 225 TPD und bist ungefähr 30% schneller unterwegs als der jetzige Kepler.
Wenn Nvidia Lust hat und mit der TPD hochgeht sind auch höhere Taktraten mit dabei und natürlich noch mehr Leistung.

Allerdings ist die Tesla Karte generell relativ niedrig getaktet (700+ MHz ?) und erreicht damit auch nur wenig mehr SP Rechenleistung als die GTX 680. Ich denke, wenn es eine GK110 Geforce geben wird, ist sie max. 20% schneller als die GTX 680 (entspricht auch anderen "Refreshs" wie GTX 480 > 580) und dabei vielleicht sogar etwas ineffizienter.

Lese doch nochmal, was ich geschrieben habe:
Die HD7970 ist ggü. der HD7950 oft bandbreitenlimitiert, weshalb sie dann nicht 33% schneller ist, wie ihre Rechenleistung vermuten lassen würde, sondern eben nur 15-20% im Schnitt.

Ich habe eure Diskussion aufmerksam gelesen und finde sie sehr interessant, aber eine wichtige Sache wird völlig außen vor gelassen. Hier werden ja Spielebenchmarks als Vergleich herangezogen. Spieleleistung setzt sich aber nicht nur aus Bandbreite und Rechenleistung zusammen. Füllrate, Geometrieverarbeitung, Texturleistung und was weiß ich spielen ja auch eine Rolle. Eine Radeon 5870 hat auch eine theoretische Rechenleistung von 2,7 TFLOPS und immerhin 150 GB/S Bandbreite. Eine GTX 680 mit ihrer rund 25% höheren Bandbreite und 20% höheren Rechenleistung ist aber fast 100% schneller.
In dem laut PCGH stark auf Rechenleistung getrimmten BF3 ist eine GTX 680 nur rund 25% schneller als eine GTX 580, die allerdings weniger als die Hälfte an Rechenleistung hat. Wobei ich vermute, das PCGH da was falsch gemessen hat.

bye
Spinal
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Jup, bei höheren Auflösungen kommt es mehr auf die Rohleistung an, bei niedrigeren auf die Einheiteneffizienz. Je weniger Pixel pro Dreieck (niedrige Auflösung), desto ineffizienter ist AMDs Frontend. Bei höheren Auflösungen wird es besser, die Effizienz steigt, die Rohleistung schlägt besser durch.

Ich habe eure Diskussion aufmerksam gelesen und finde sie sehr interessant, aber eine wichtige Sache wird völlig außen vor gelassen. Hier werden ja Spielebenchmarks als Vergleich herangezogen. Spieleleistung setzt sich aber nicht nur aus Bandbreite und Rechenleistung zusammen. Füllrate, Geometrieverarbeitung, Texturleistung und was weiß ich spielen ja auch eine Rolle. Eine Radeon 5870 hat auch eine theoretische Rechenleistung von 2,7 TFLOPS und immerhin 150 GB/S Bandbreite. Eine GTX 680 mit ihrer rund 25% höheren Bandbreite und 20% höheren Rechenleistung ist aber fast 100% schneller.
In dem laut PCGH stark auf Rechenleistung getrimmten BF3 ist eine GTX 680 nur rund 25% schneller als eine GTX 580, die allerdings weniger als die Hälfte an Rechenleistung hat. Wobei ich vermute, das PCGH da was falsch gemessen hat.

bye
Spinal

Unterschiedliche Architekturen kann man so halt nicht vergleichen, das kann ich nur betonen. Füllrate und Texturleistung sind mehr oder weniger egal, dazu muss man sich nur mal z.B. die 7870 und die 7970 anschauen. Die 7870 hat sogar mehr Pixelfüllrate und ist trotzdem überall deutlich langsamer. Texelfüllrate skaliert fast immer mit der Rechenleistung mit, weil die TMUs und TAUs an die ALUs gekoppelt sind. Von daher ist auch das kein Argument.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Alles schön und gut, aber es wird wie immer sein: Irgendwann gibt es die GTX 780 und gut ist. Zack Boom und da ist sie. Und dann gibt es auch die 8970 oder was auch immer. Geduld ist eine Tugend. Schlaf ist wichtiger. Also, gute Nacht Gerüchtekocher.
 
Zurück