Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Ich kann Nvidia gut verstehen. Sie sind in letzter Zeit sehr hart damit beschäftigt Grafikkarten für das doppelte an Kohlen an den Mann/Frau zu bringen. Das geht bei einer Konsole natürlich nicht, weil sich Sony nicht verarschen lässt:D
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Das müssen wir erstmal abwarten. Das Prinzip mit dem schnellen Zwischenspeicher und Antialiasing hat in vielen Spielen schon auf der XBox360 gut funktioniert. Da hieß es anfangs auch, dass die PS3 die bessere Technik hätte. Am Ende war sie nur ein teurer Blu-Ray Player mit schlechterer Grafik als die PS3. Mal schauen inwiefern sich die Konsolen am Ende technisch ähneln...

Natürlich müssen wir erstmal abwarten auf die finalen Specs der Konsole, da aber dieses Mal beide relativ ähnlich aufgebaut sind ist es auch einfacher Multiplattformtitel leicht anzupassen. PS3 und Xbox 360 sind sehr verschieden gewesen und neben dem komplizierten Cell hatte Sony beim Speicher meiner Meinung nach auch nicht die richtige Entscheidung getroffen, da die PS3 256MB für das System und 256MB für die Grafikeinheit getrennt hat. Das hatte zuletzt für Probleme beim Skyrim DLC gesorgt und wird sicher auch noch andere Entwickler gestört haben. Da war die Xbox 360 mit den 512MB Pool besser aufgestellt, da die Entwickler hier selbst entscheiden konnten wie sie ihre Ressourcen einteilen.
Wenn sich die Leaks als richtig herausstellen kann man aber dieses Mal schon davon ausgehen, dass die PS4 optisch ein Stückchen vorne liegen wird, da die 8GB GDDR5 RAM von Sony schon eine Hausnummer sind und es schwer wird für Microsoft mit 8GB DDR3 und Zwischenspeicher dagegen anzukommen. Wenn dann die Grafikeinheit noch schwächer wird als bei der PS4 braucht man nur eins und eins zusammenzählen.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Schließlich gibt es dank PhysX zumindest mal GPU beschleunigte Physik Effekte in Spielen. Welches nicht PhysX Spiel bietet das noch? Ich kenne keines, trotz Havok, Bullet, DX11 und Compute Shader
Das mag vielleicht daran liegen, weil die meisten Entwickler PhysX für Augenwischerei missbrauchen und essentielle Physikdarstellungen auf einer modernen CPU flüssig laufen. In Mafia 2 finde ich die Fahrphysik und wie sich Reifen an Boardsteinen plattdrücken genial, aber das läuft eben auch über einen potenten Prozessor gut. Meistens wird PhysX eben nur für das Projekt "Mache aus 100 Partikeln 1000" genutzt. Ich hätte mir da mehr echte Interaktion gewünscht. Ein echtes Zerstören und herausbrechen von Landschaftsteilen bei Explosionen statt dem Aufpoppen von 789 Physik-Steinchen wäre da echt ein Anfang gewesen.
 
Zuletzt bearbeitet:
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Genau solche interaktive Physik ist eine Herausforderung für den PCIe-Bus.
Genau wegen solcher Fälle warten wir ja gespannt auf die Next-Gen und HSA.
 
Zuletzt bearbeitet:
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Das mag vielleicht daran liegen, weil die meisten Entwickler PhysX für Augenwischerei missbrauchen und essentielle Physikdarstellungen auf einer modernen CPU flüssig laufen. In Mafia 2 finde ich die Fahrphysik und wie sich Reifen an Boardsteinen plattdrücken genial, aber das läuft eben auch über einen potenten Prozessor gut. Meistens wird PhysX eben nur für das Projekt "Mache aus 100 Partikeln 1000" genutzt. Ich hätte mir da mehr echte Interaktion gewünscht. Ein echtes Zerstören und herausbrechen von Landschaftsteilen bei Explosionen statt dem Aufpoppen von 789 Physik-Steinchen wäre da echt ein Anfang gewesen.

Natürlich, das wünschen wir uns alle. Aber das geht halt nicht wenn nur ein kleiner Prozentsatz diese Technologie nutzen kann. Da kann man natürlich wieder diskutieren, warum wieso weshalb Nvidia proprietäre Schnittstellen verwendet die kein anderer nutzen kann/darf.
Aber jetzt im Moment sind es eben optische Leckereien, es ist halt nur ein Anfang. Das kommt schon noch. Aber eigentlich sollte es in diesem thread nicht um PhysX gehen :)

Vermutlich wird es mit den neuen Konsolen viel mehr GPU Berechnete Dinge geben (zum Beispiel Physik). Dann kommt das sicher auch für den PC :) Und zwar für jeden :)

Genau solche interaktive Physik ist eine Herausforderung für den PCIe-Bus.
Genau auf solche Fälle warten wir ja gespannt auf die Next-Gen und HSA.

Ich bin mir da ehrlich gesagt nicht sicher. Ich glaube wir hatten das Thema schonmal im PS4 PhysX Thread. Kollisionsabfrage usw. haben die Partikel in Borderlands 2 schon. Somit auch eine Interaktion mit dem Spieler. Das ganze gameplayrelevant umzusetzen sollte das kleinste Problem sein. Man müsste wirklich mal die PCI Express Last von Borderlands 2 mit und ohne PhysX messen.
Aber wie man es dreht und wendet, ich hoffe, mit den neuen Konsolen wird sich das alles in eine positive Richtung verändern.

bye
Spinal
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Interessant. Damit hat sich NVidia auf Gedeih und Verderb den PC Grafikchips und dem "Mobile" Markt (Tegra) verschrieben. Auf ein drittes Standbein wird ja nunmehr verzichtet. Und der Konkurrenzkampf mit Intel und ARM ist lange nicht für NV entschieden.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Ich bin mir da ehrlich gesagt nicht sicher. Ich glaube wir hatten das Thema schonmal im PS4 PhysX Thread. Kollisionsabfrage usw. haben die Partikel in Borderlands 2 schon. Somit auch eine Interaktion mit dem Spieler. Das ganze gameplayrelevant umzusetzen sollte das kleinste Problem sein. Man müsste wirklich mal die PCI Express Last von Borderlands 2 mit und ohne PhysX messen.
Aber wie man es dreht und wendet, ich hoffe, mit den neuen Konsolen wird sich das alles in eine positive Richtung verändern.
Welche Kollisionsabfrage genau? Für die Partikel selber ist das klar, aber können sie die restliche Geometrie beeinflussen?
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Das müssen wir erstmal abwarten. Das Prinzip mit dem schnellen Zwischenspeicher und Antialiasing hat in vielen Spielen schon auf der XBox360 gut funktioniert. Da hieß es anfangs auch, dass die PS3 die bessere Technik hätte. Am Ende war sie nur ein teurer Blu-Ray Player mit schlechterer Grafik als die PS3. Mal schauen inwiefern sich die Konsolen am Ende technisch ähneln...

Die 10MB eDRAM Lösung in der XBox360 und die 32MB eSRAM Lösung in der neuen XBox sind zwei ganz unterschiedliche paar Schuhe. Der eDRAM in der XBox360 ist mit einer extrem hohen Bandbreite von 256GB/s an die ROPs angebunden und dient als Framebuffer, daher auch der Vorteil bei Kantenglättung. In der neuen XBox wird jedoch der 68GB/s schnelle DDR3 RAM als Framebuffer herhalten. Der eSRAM wird zudem nur mit 102GB/s angebunden sein, dafür aber nicht nur an die ROPs, sondern an die ganze GPU. Ausserdem ist der embedded RAM Pool jetzt dreimal so groß und wird darüberhinaus koheränt zum DDR3 RAM Pool sein. Abhängig davon welcher SRAM Typ verwendet wird (1T oder 6T), werden die Latenzen womöglich auch noch positiv beeinflusst werden. Die Kopieroperationen werden bei der neuen XBox auch nicht mehr von den Streamprozessoren übernommen, sondern von sogenannten Data Move Engines, wodurch wiederum etwas Rechenleistung eingespart werden kann.

Im Falle der PS3 war übrigens von Anfang an klar, dass die XBox360 die bessere GPU und Speicherarchitektur besaß. Entwickler wie Naughty Dog haben den extrem schwer zu programmierenden Cell Prozessor als Co-GPU benutzt um die geringe Leitsungsfähigkeit des Grafikchips auszugleichen. Der ATi Xenos in der XBox360 war dem Nvidia RSX haushoch überlegen. Das wird bei der Next Gen aber anders sein: Sony verwendet die gleichen Architekturen vom selben Hersteller, nur mit dem Unterschied, dass die PS4 50% mehr Compute Units, 50% mehr TMUs und 100% mehr ROPs in der GPU hat. Auch bei der Speicherarchitektur ist der 8GB UMA GDDR5 Pool mit 176GB/s der Kombination aus 32MB eSRAM @ 102GB/s und 8GB DDR3 @ 68GB/s aller Vorraussicht nach überlegen.
 
  • Like
Reaktionen: X1K
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Der Framebuffer wird aller Logik nach natürlich im eSRAM zu finden sein, mit 102 GB/s.
Es geht ja auch nur darum, mit relativ wenig Aufwand einen "schnellen" zwischencache zu erhalten, um weniger Konflikte um die Ressourcen zu haben, damit die GPU bei einigen Operationen nicht ausgebremst wird.
Aber natürlich ist die ganze Lösung für sich eine gute GPU-Performance-Klasse unter der PS4 angesiedelt.
Praktische Auswirkungen erwarte ich aber nur bei stabileren Frames oder vielleicht je nach Spiel, mal 4xAA vs. 2 mal oder ähnliches.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Was war denn mit 3dfx? Richtig, Nvidia hat ein Unternehmen geschluckt, das ohnehin schon pleite war und hat eine Großzahl an Mitarbeitern übernommen. War schon richtig schlimm, dass die das so gemacht haben.

Jetzt kommen schon Wikipedia Links. Dann schau dir mal eine Reihe Werbespots von Pepsi und Coca Cola an, da wirst du schnell merken, wer was nötig hat und was nicht.
Aha.
Sie hatten es also nicht nötig einen Konkurrenten durch Aufkaufen loszuwerden. So viel zu "sie haben es nicht nötig" sich mit der Konkurrenz zu befassen, sie sind ja so übermächtig. :schief:
Stimmt, sie haben ausschließlich an die armen Mitarbeiter von 3dfx gedacht und wollten nicht, dass diese auf der Straße landen. :schief: :lol:
Genauso wie es Coca-Cola nicht nötig hatte, ein Spiel entwickeln zu lassen, in welchem man auf Pepsi-Alien-Raumschiffe schießt. Interessant.

Ach komm, jetzt hör doch endlich mit "sie haben es nicht nötig" auf. Keine Firma verzichtet freiwillig auf einen Großauftrag. Keine Firma lässt freiwillig eine Gelegenheit aus, der Konkurrenz zu schaden.
Vor allem aber gibt es so gut wie keine Firmen, welche es nicht nötig haben, sich darum zu kümmern, was die Konkurrenz macht.


Sony hat sich einfach für AMDs Lösung entschieden. Ob es jetzt am Preis, an Performance/Euro, an der Leistung oder den Vorteilen von CPU und GPU aus einer Hand lag ist doch wurst.
AMD hat den Zuschlag gekriegt, andere Mitbewerber und/oder PS4 Konzepte (GPU und CPU getrennt) haben da einfach verloren. Fertig.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Nein du erzählst murks! Eine auf Tatsachen bassierende Argumentation sieht anders aus!

Eine Tatsache kann man nämlich auch mit Quellen belegen, nur bei dir seh ich nicht eine einzige... :schief:

Ich und mit Sicherheit noch einige anderen hier, würden gern den Wahrheitsgehalt deiner Aussagenprüfen, manche haben im Kern ja schon durchaus interessante Züge. Nur so ohne jeglichen Beleg ist das :daumen2:

Erzählen kann man immer viel, nur das mit dem belegen ist so ne Sache ;)

Wie wärs bei dir auch mal mit ein paar Belegen? Du behauptest auch Dinge wie der Weltmeister, aber mit Quellen und Belegen hast es auch nicht so?

Ist ja ganz nett, wenn man viel schreibt aber gerade bei solchen Behauptungen sollte man doch auch ein paar Belege dazupacken...

Wie oben schon erwähnt, erzählen kann man immer viel.

Ihr beide seit mir schon so Knaller...

mfg

Bärenmarke
Hast du doch direkt schon selbst gefunden.

Aber nochmals hier:
Nvidia Blows Multi-Million Dollar Deal Due to Poor Linux Support | Tek Syndicate
China: NVIDIA Loses Face and a 10 Million PC Order over Linux Drivers and NRE's - Bright Side Of News*
Und zu Audi:
Audi setzt bei Navigations- und Entertainment-System auf NVIDIA-Lösung
Ab 2012 wird in den High-End-Entertainment- und Navigationssystemen aller Audi-Modelle die neue Generation der Tegra-Prozessoren von NVIDIA integriert. Das betrifft auch die anderen Marken der Volkswagen AG wie Volkswagen, Bentley, Lamborghini, SEAT and SKODA. Die neuen Prozessoren werden die Systemperformance entscheidend erhöhen und den Energieverbrauch um das 10-Fache senken.
Nvidia - Bald in allen Autos der Volkswagen-Gruppe? - News - GameStar.de
Texas Instruments Wins Deal With Audi : :: TheGuruReview.net ::

Muss ich noch mehr rausziehen, als das, wie nVidia da mal WIEDER! völlig überzogen enthusiastisch war, und sich als Nabel der Welt angesehen hat, ohne den es nicht geht?

Die PR-Aktionen von nVidia zu dem Audi/VW "Deal" waren noch deutlich stärker ausgeprägt, als das was man hier lesen kann... Und was gabs es davon wirklich? Nicht mal die Einschätzungen/Ankündigungen 2010/2011 haben sich bewahrheitet.... nVidia hatte nur nie eine breite Verfügbarkeit, sondern wurde ziemlich schnell von TI usw ersetzt.... Und das ist eben nicht nur ein Einzelfall, sondern sympomatisch für nVidia und Tegra insbesondere.

Für diese Aussage hätte ich gerne einen Beleg. Ich hatte es in einem anderen Thread schonmal geschrieben, Nvidia hat vor PhysX an HavokFX gearbeitet, eine GPU beschleunigte Physik Engine, die auf jeder DX (welche Version weiß ich nicht genau) Karte läuft. Havok wurde von Intel gekauft und die Entwicklung der GPU Beschleunigung scheint nicht weiter verfolgt worden zu sein.
Später wurde PhysX gekauft und ich frage mich, ob das dem Markt wirklich geschadet hat. Schließlich gibt es dank PhysX zumindest mal GPU beschleunigte Physik Effekte in Spielen. Welches nicht PhysX Spiel bietet das noch? Ich kenne keines, trotz Havok, Bullet, DX11 und Compute Shader.
TombRaider auf jeden Fall.

Es ist aktuell aber wirklich noch recht mager. Das liegt aber auch daran, das man das Problem hat, das man eben richtig fette Probleme haben muss, damit der Overhead durch die getrennten Adressräume erstmal kompensiert werden kann. Dafür sind die KArten dann aber meist nicht leistungsstark genug, das normale Game müssen Sie ja noch weiterhin darstellen... HSA/APU mit einem gemeinsamen Adressraum ist da VIEL VIEL VIEL! unkritischer, weil sich schon viel viel viel! kleinere Problemgrößen lohnen.

Ich kenne das aus anderen Foren (nicht IT Foren). Da kommen immer wieder mal kleine Insider Infos raus, aber nichts weltbewegendes. Hier werden ja Dinge gesagt, zu denen man auch öffentliche und sogar offizielle Belege finden sollte. Marktanteile (kann man selber googlen, aber wenn man darüber redet, sollte man auch einen Link bereitstellen). Aussagen wie von Skysnake sind ohne Beleg auch schwer verdaulich. Da kann man doch mal nen Link geben wo Nvidia das "groß rausposaunt" hat und einen mit Statistiken, damit wir verstehen können, was denn nun "eine Luftnummer" in Zahlen bedeutet.
Guckst du oben, und zu Tegra empfehle ich auf den Topic:3DCenter Forum - nVidia - Tegra-Spekulationen
Ich hoffe dich stören die 125 Seiten nicht. Da musste dich halt durcharbeiten. Und zu Ailuros, der ist verlässlich, und hat bessere Quellen als OBR usw. Der trifft schon verdammt oft. Vor allem spuckt er der wartenden Meute aber überhaupt ein paar Brocken hin. So manch anderer macht das nur über PMs. Das ist dann zwar noch detailiert, aber eben unter 4 Augen, und da bleiben die Sachen dann auch! Es gibt nämlich schon 2 Seiten. Einmal das, was wirklich komplett öffentlich ist, und das, was man dann noch unter 4 Augen austauscht. Und da wirds dann wirklich interessant, weil man mehr über die Beweggründe erfährt.


offizielle Presseerklärungen entsprechen doch nie und bei keinem 100% der Wahrheit. Das ist nicht nur bei Nvidia so. Und wie ich schon schrieb, ich bin sehr vorsichtig mit den (angeblichen) Insiderinfos mancher User. Erzählen kann man viel, oft (nicht immer) verbirgt sich dahinter nur ein wenig Aufmerksamkeitsgetue.
/sign

Das hatte ich schon einmal beantwortet davor. Skysnake meinte bestimmt diese Meldung hier:


CES 2012: Grafik-Power in Power-Autos - Tegra in Audi, Lamborghini und Tesla [Jetzt mit Exklusivvideo]

Auf der CES 2012 hatte Nvidia verstärkt damit geworben, konnte aber nicht alle Deals so abschließen wie es eigentlich geplant war.
Du meinst wohl eher, es Sie konnten nicht mal die Minimalerwartungen erfüllen. nVidia neigt eben sehr dazu, völlig zu übertreiben...


Richtig, habe deinen Link gesehen. Allerdings geht da nicht hervor, dass es eine Luftnummer ist. Auch würde ich einen Messestand, der mit feschen Autos wirbt, nicht unbedingt als "groß rumposaunen" bezeichnen.
Wie würdest du denn dann das ALLE interpretieren?



Genau solche interaktive Physik ist eine Herausforderung für den PCIe-Bus.
Genau wegen solcher Fälle warten wir ja gespannt auf die Next-Gen und HSA.
Nicht für den Bus, sondern ein Problem des Overheads allein schon durch die getrennten Adressräume-
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Nicht für den Bus, sondern ein Problem des Overheads allein schon durch die getrennten Adressräume-
Ich glaube aber wir haben das schon zum kotzen oft wiederholt. :D
Getrennte Adressräume, hohe Latenzen bei der CPU-GPU Kommunikation, der Data-Transfer-Overhead anschaulich beim AMD PDF bezüglich der APUs usw.
Skysnake, gerade bei der Computing-Welt sollte man doch gespannt sein auf Project Denver und Kaveri?
Wegen dem Overhead werden ja GPUs auch nicht für alle wissenschaftlichen Berechnungen herangezogen.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Mich wundert ein wenig das in all den Kommentaren noch nicht das Nvidia Tomb Raider Debakel zur Sprache gekommen ist.
Ich denke nämlich das wir hier schon einen Blick in die Zukunft werfen konnten.

Sämtliche Next-Gen Cross-Platform Spiele werden auf AMD GPUs entwickelt und logischerweise auch stark darauf optimiert werden.
Es wird sicherlich häufiger passieren dass man als Nvidia-Bestizer Titel anfangs nur eingeschränkt (oder auch gar nicht) wird spielen können.

Als GTX 680 Besitzer bin ich jedenfalls angesäuert das ich Tomb Raider nicht vernüntig zocken kann, daran hat auch der Patch nix geändert. :motz:
Bis der angepasste Treiber kommt wird sich daran wohl nix ändern. :daumen2:

Da ich jedoch keinen Bock habe bei zukünftigen Toptiteln wieder Tage/Wochen warten zu müssen wird meine nächste Graka zu 98% wieder eine AMD.
Und so wird Nvidia durch ihre Konsolen-Abstinenz einen Kunden verlieren und ich wette ich bin nicht der einzige der so denkt!
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Hört sich für mich nach "mimimimi" an :schief:. Außerdem macht der AMD Deal viel mehr Sinn, quasi alles aus einer Hand. Ich denke schon das AMD mit den beiden Deals Gewinn macht.
 
Mich wundert ein wenig das in all den Kommentaren noch nicht das Nvidia Tomb Raider Debakel zur Sprache gekommen ist.
Ich denke nämlich das wir hier schon einen Blick in die Zukunft werfen konnten.

Sämtliche Next-Gen Cross-Platform Spiele werden auf AMD GPUs entwickelt und logischerweise auch stark darauf optimiert werden.
Es wird sicherlich häufiger passieren dass man als Nvidia-Bestizer Titel anfangs nur eingeschränkt (oder auch gar nicht) wird spielen können.

Als GTX 680 Besitzer bin ich jedenfalls angesäuert das ich Tomb Raider nicht vernüntig zocken kann, daran hat auch der Patch nix geändert. :motz:
Bis der angepasste Treiber kommt wird sich daran wohl nix ändern. :daumen2:

Da ich jedoch keinen Bock habe bei zukünftigen Toptiteln wieder Tage/Wochen warten zu müssen wird meine nächste Graka zu 98% wieder eine AMD.
Und so wird Nvidia durch ihre Konsolen-Abstinenz einen Kunden verlieren und ich wette ich bin nicht der einzige der so denkt!

Anders herum kann man es auch so sehen, dass die Spiele nicht mehr auf Nvidia optimiert werden und es endlich gerecht zugeht. Ich meine warum meinst du haben Nvidia-Karten einen so geringen Stromverbrauch ? Das liegt daran, dass die alles aus dem Chip gestrichen haben, was nicht zwangsläufig für Spiele (von damals) wichtig ist (siehe GPGPU-Leistung).
Jetzt wird vermutlich die Power der GCN-Architektur zum tragen kommen.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Wie heisst es noch so schön...Hochmut kommt vor dem Fall oder Flieg nicht so hoch mein kleiner Freund.
Ich als Jahrelanger Nvida Fan kann nur dazu sagen das ich mir momentan mit Sicherheit keine Karte aus der &er Reihe kaufen würde,da der Preis erstmal völlig überzogen ist und man dafür eine Karte bekommt die nur darauf getrimmt ist beim Zocken schnell zu sein und dabei beim Speicherbus und einigen anderen Dingen einen Rückschritt zu den Vorgängerkarten gemacht hat. Meine nächste Karte wird auf jeden Fall eine Asus CUII 7970 sein(besserer Preis , bessere Technik )
und dank der Nvidia Absage an Sony und Microsoft auch bald auf ATI besser abgestimmte Spiele.NVidia sei dank.


PS: Man erinnere sich an 3DFX die ihre Karten auch nur auf Zocken ausgelegt hatten...ADIOS MUCHACHOS
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Wie heisst es noch so schön...Hochmut kommt vor dem Fall oder Flieg nicht so hoch mein kleiner Freund.
Ich als Jahrelanger Nvida Fan kann nur dazu sagen das ich mir momentan mit Sicherheit keine Karte aus der 6er Reihe kaufen würde,da der Preis erstmal völlig überzogen ist und man dafür eine Karte bekommt die nur darauf getrimmt ist beim Zocken schnell zu sein und dabei beim Speicherbus und einigen anderen Dingen einen Rückschritt zu den Vorgängerkarten gemacht hat. Meine nächste Karte wird auf jeden Fall eine Asus CUII 7970 sein(besserer Preis , bessere Technik )
und dank der Nvidia Absage an Sony und Microsoft auch bald auf ATI besser abgestimmte Spiele.NVidia sei dank.


PS: Man erinnere sich an 3DFX die ihre Karten auch nur auf Zocken ausgelegt hatten...ADIOS MUCHACHOS
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Anders herum kann man es auch so sehen, dass die Spiele nicht mehr auf Nvidia optimiert werden und es endlich gerecht zugeht. Ich meine warum meinst du haben Nvidia-Karten einen so geringen Stromverbrauch ? Das liegt daran, dass die alles aus dem Chip gestrichen haben, was nicht zwangsläufig für Spiele (von damals) wichtig ist (siehe GPGPU-Leistung).
Jetzt wird vermutlich die Power der GCN-Architektur zum tragen kommen.
Und warum hat der Titan dann so einen niedrigen Stromverbrauch? Mehr Leistung und weniger Stromverbrauch als eine Ghz-Edition, ich meine Crap-Edition, mit weniger Voltage hätte AMD sich deutlich besser positionieren können.
Dennoch die Perf/Watt ist bei Kepler echt sehr gut.
Mir fällt auch bei GCN nicht soviel ein, was es zusätzlich an GPGPU "Ballast" haben sollte. Tahiti hat natürlich mehr Verdrahtung bei ihren Shader-Einheiten, Pitcairn deutlich weniger und bisschen mehr als Kepler und ansonsten sollten noch 2 schlanke ACEs bei allen dabei sein. Nichts was den Schinken fett macht oder Unmengen an Strom verbraucht.

Mich wundert ein wenig das in all den Kommentaren noch nicht das Nvidia Tomb Raider Debakel zur Sprache gekommen ist.
Ich denke nämlich das wir hier schon einen Blick in die Zukunft werfen konnten.

Sämtliche Next-Gen Cross-Platform Spiele werden auf AMD GPUs entwickelt und logischerweise auch stark darauf optimiert werden.
Es wird sicherlich häufiger passieren dass man als Nvidia-Bestizer Titel anfangs nur eingeschränkt (oder auch gar nicht) wird spielen können.

Als GTX 680 Besitzer bin ich jedenfalls angesäuert das ich Tomb Raider nicht vernüntig zocken kann, daran hat auch der Patch nix geändert. :motz:
Bis der angepasste Treiber kommt wird sich daran wohl nix ändern. :daumen2:

Da ich jedoch keinen Bock habe bei zukünftigen Toptiteln wieder Tage/Wochen warten zu müssen wird meine nächste Graka zu 98% wieder eine AMD.
Und so wird Nvidia durch ihre Konsolen-Abstinenz einen Kunden verlieren und ich wette ich bin nicht der einzige der so denkt!
Warum lief GTA4 eig. so schlecht auf ATI-Karten? Die Xbox 360 hat doch eine ATI-Karte gehabt, nicht VLIW5, aber schon ähnlich bei einigen Punkten dazu.
Man sollte diesen einen Vorfall jetzt nicht überbewerten, dank DX11 wird die Kompa schon zum Großteil irgendwie reingewürgt und der Rest ist eben "etwas" Anpassung.
Man muss noch schauen, wie groß die Auswirkungen für Nvidia wirklich werden.
Klar Vorteilhaft werden sie wohl kaum sein, aber es muss auch in keiner Katastrophe bei jedem Spiel ausarten.
 
Zuletzt bearbeitet:
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Der Framebuffer wird aller Logik nach natürlich im eSRAM zu finden sein, mit 102 GB/s.

Logisch wäre das, ja, aber laut derzeitigem Informationsstand befindet sich der Framebuffer eindeutig im DDR3 Pool. Der eSRAM Pool wird vermutlich als Scratchpad Memory für GPGPU Operationen herhalten. Daher auch die Verwendung des sehr teuren eSRAM. Als Framebuffer würde auch der wesentlich günstigere eDRAM genügen.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Wieso eindeutig?
Spekuliert man darüber das andere Operationen, als das zusammensetzen eines Bildes, mehr von eSRAM profitieren und Bandbreitenhungriger sind?
 
Zurück