Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Nvidia lebt gerade im Bereich der dedizierten Spieler GPUs von einem über Jahre ziemlich geschickt aufgebauten Ruf:
- Man stellt das absolute Flaggschiff und die DAUs glauben grundsätzlich ist Nvidia "besser"
- Mit dem TWIMTBP Programm hat man über Jahre das getan, was AMD kürzlich mit Tomb Raider gemacht hat: Man lässt seine Hardware noch besser dastehen als sie eigentlich ist, indem Spiele gezielt dafür optimiert werden und bei der Konkurrenz schlechter laufen
- Mit Cuda und GPU PhysX hat man Alleinstellungsmerkmale geschaffen und viele Menschen ticken nunmal so, dass sie - trotz aller Rationalität - irgendwie ins Grübeln kommen ob es nicht doch "nett" wäre GPU PhysX an Board zu haben anstatt ohne auskommen zu müssen selbst wenn es nur 1 Spiel pro Jahr ist
- Im Notebook-Bereich hat man mit Optimus ein sehr gutes Feature gebracht und AMD hat lange genug gebraucht um mit Enduro nachzuziehen (das angeblich noch immer nicht wirklich reibungslos funktioniert)
- Man hatte bessere Treiber und dieses Image hält sich hartnäckig
- Man hatte besseres Marketing und selbst heute noch kennen viele AMD/ATI Grafikkarten überhaupt nicht, ja es gibt auch immer noch genug Leute die gar nicht wissen, dass es außer Intel noch AMD CPUs gibt
- Und zu guter letzte die ganzen Intel/Nvidia Deals im OEM Markt, die eben auch einen extremen Marketing-Effekt bringen und bei vielen Leuten hängt im Gehirn eben Grafikkarte = Nvidia weil der OEM Rechner vom Blödmarkt so einen Aufkleber hatte

Diese ganzen Faktoren tragen dazu bei, dass Nvidia für seine GPUs in fast allen Performancebereichen einen Ticken mehr verlangen kann und - so man denn den Statistiken glauben kann - trotzdem mehr Markt abdeckt als AMD. Zur Zeit habe ich jedoch das Gefühl, dass AMD (endlich) in vielen Punkten stark am Aufholen ist und Nvidia auch einige Chancen (vielleicht leichtfertig) verbockt hat oder deren Wirkung fürs Marketing unterschätzt.

-Im OEM Markt wird Nvidia wegsterben, Haswell hat eine so starke Grafikeinheit, was für eine low Budget GPU will man da noch dazuschenken? > AMD hingegen hat seine eigene APU mit AMD Grafik mit Aufkleber
-Bei den Treibern hat AMD schon seit einigen Jahren sehr stark aufgeholt, hier sehen nur noch eingefleischtige Fans Vorteile bei Nvidia oder einzelne Nutzer mit exotischen Bedürfnissen
-Gaming Evolved von AMD nimmt zunehmen Fahrt auf, das heißt nicht, dass Nvidia hier schläft (gibt ja immer noch TWIMTPB und 2-3 GPU PhysX Titel sind glaube ich auch in der Mache), nur gibt es plötzlich ein ausgleichendes Element im Gegensatz zu früher, wo AMD praktisch gar nichts gemacht hat in diese Richtung
-AMD ist bei allen künftigen Konsolen vertreten, jetzt müssen sie nur noch dafür sorgen, dass sich das auch gut genug rumspricht (und ich rede hier nicht von Leuten wie uns, die das sowieso lesen, sondern von den zigtausend Spielern die nie ein solches Forum wie das hier besuchen)
- AMD ist möglicherweise die bessere Wahl was Konsolenports auf den PC betrifft und wird also in Zukunft eventuell noch mehr vom "das Spiel ist für AMD optimiert und lässt deren Hardware besser dastehen als Nvidias" profitieren

Was Nvidia noch unbestritten hat: Wieder das Flaggschiff mit Titan, GPU-PhysX und CUDA

Auf jeden Fall bin ich gespannt wie sich das ganze entwickelt. Meine Vermutung ist ähnlich der von einigen hier im Forum, dass AMD vielleicht für Spiele PCs künftig die bessere Wahl sein wird, aber auch für GPU-Compute wird sich meiner Meinung nach HSA durchsetzen und CUDA über kurz oder lang uninteressant werden.

Mich verwundert ja schon länger, wieso man keine stärkeren APUs für den Desktopmarkt anbietet, schließlich wäre es kein Beinbruch hier eine TDP von 150W oder mehr unter Last auszureizen. Ich wäre da der erste, der sich so etwas kauft, wenn die integrierte GPU in etwa die Power einer 7850 hat. Mittlerweile ist der Grund offensichtlich, denn man kann die Dinger anscheinend sehr wohl bauen, aber man priorisiert hier die Konsolen und wird keinerlei Wafer an Desktop-Parts mit geringer Stückzahl verschwenden (zudem gibts da wahrscheinlich Verträge die verhindern dass man zeitnah ein ähnliches System für den Desktop bringt).

Wenn man sich aber mickythebeagles Link zu Kaveri ansieht, dann steht einer Desktop Version die ziemlich identisch mit einer PS4 ist nicht viel im Wege... Vielleicht wirds noch was bevor ich meinen Q6600 endgültig in Rente schicken muss.
 
Zuletzt bearbeitet:
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Ich denke du betrachtest das etwas einseitig.
Hast du in deinem Leben schonmal von Software gehört?
Zu so nem Deal gehört nicht nur die Hardware und die stellt man warscheinlich eh nicht selber her sondern lässt Sony das machen und kümmert sicher daher nur um die Entwicklung.
Angenommen Sony möchte nun zwingend eine x86 CPU verbauen so liefert Nvidia nur den Grafikpart. Das kostet dann Manpower mit einer anderen Firma ein SoC zu entwickeln oder eine andere Lösung zu finden sowie sich überhauptb erstmal an die Technik der anderen Firma anzupassen um eine optimales Ergebniss zu bekommen. Das sollte bei einer Konsole wohl nochmal etwas anderes laufen als bei einem klassischen PC auch wenn hier x86 Komponenten verbaut werden.

Danach kommt noch die ganze Softwaregeschichte. Optimierte Treiber für genau diese Hardwareconfig, Treiberpflege bezüglich neuer Inhalte(Spiele, etc) usw.
Das kostet alles Manpower sowie Geld und das warscheinlich über Jahre hinweg.
Da kann man auch schonmal Nein sagen wenn man das Spielchen schon 2 mal mitgemacht hat(xbox, ps3?) und derweil eigene Projekte(Shield, Tegra,.. (Denver?)) am Start hat.

Was nun da wirklich Fakt ist kann hier sowieso keiner sagen und selbst Nvidia wüsste es auch erst wenn der ganze Spaß vorbei ist.
Allerdings finde ich es irgendwo auch bedenklich das AMD die Hardware für warscheinlich beide Konsolen stellt. Das könnte für Intel/Nvidia User, die ja bekanntlich nicht so wenige sind, in den nächsten Jahren auch einige Probleme mitbringen. Für AMD ist es natürlich schick.
Klar, nur was hat die Wahl zwischen nVidia GPU only + extra CPU oder aber was entsprechendes von AMD bzw. AMD APU jetzt bitte erst mal mit der Software zu tun, abseits sowas grundlegendem wie den Treibern? Am GPU-Part selber (also da, wo nVidia ins Spiel käme) wirds wohl eher weniger liegen, da dank DX11-Spezifikation die Shader sich auf einer übergelagerten Ebene im Grunde gleich verhalten müssen in Bezug auf Software um DX11 zum laufen zu bringen. Sonys Custom OS für die Playstation wäre auf jedwede Chips anwendbar, die entsprechend spezifiziert sind, etliche Mitarbeiter zur Optimierung würden beide Firmen ja wohl ausserdem dafür abstellen können, bei der Dimension des Auftrags. Inkompatibilitäten etc. sind beim Fokus auf eine einzige Hardwarekonfig jetzt auch nicht das Problem .... Software spielt auf PCs eine viel komplexere Rolle als in einem geschlossenen System, wo von vornherein die Hardware auf die es hin zu optimieren gilt feststeht, die Wahl des Chip-Herstellers und des Designs ist daher erst mal wuppe, da halt nachher genau dafür programmiert wird. Die Frage ist da jetzt nur, ob man was exotisches nimmt, von dem nachher / auf das nachher schwer zu porten ist (aka Cell), oder was bekanntes nimmt, das eh eine hohe Verbreitung hat, sprich x86-x64 + DX11.0. Daher ist die Betrachtung rein von der Hardware-Basis her gar nicht so verkehrt.

Und ja, Sony wollte unbedingt x86 verbauen, das haben die auf ihrer PK mehrfach erwähnt: Sie wollten den Entwicklern entgegen kommen, und die wollten PC-Technik verbaut sehen (kann man verstehen, für den Cell Code zu schreiben, bzw. viel schlimmer Code auf diesen zu portieren war laut Entwickleraussagen ein Graus). Warum es keine Kombination aus einer schnelleren Intel-CPU und einer GPU von nVidia wurde, wird wohl seine Gründe haben, einen möglichen habe ich im Vorpost genannt.



Aso, bevor das Fanboy-Gebashe wieder los geht: Ich habe seit 7 Jahren nur GeForces verbaut.
Weil nach so einem Posting 3 Posts später der erste daher kommt und "AMD-Fan!" losplärrt, ist echt schlimm geworden ... daher direkt zu schreiben, dass man als nVidia-Nutzer das PR-Statement von nVidia lächerlich findet beugt sowas vor. = )
 
Zuletzt bearbeitet:
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Finde extrem lustig, das manche hier immer noch einen CPU- UND GPU-Hersteller mit einem fast Only-GPU-Hersteller vergleichen und daraus schlussfolgern, das die anderen wegen der, ziemlich offensichtlich und logisch, höheren Produktvielfalt den anderen im absolut klaren Vorteil sehen. Gepaart mit den "über-einen-Kamm" scheren, ist es echt unterhaltsam.
Aber ich halte mich jetzt aus der Diskussion raus und hoffe das TheBrutus/Skysnake, falls er es noch nicht gemacht haben sollte, Links posten wo manches untermauert wird - damit meine ich nicht die Technik.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

hab ich schon gemacht, du musst die Posts nur lesen ;)
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Skysnake, ich bin bei schon weiter vorne ausgestiegen, aber ich schau mal.

Und das einzige was ich gerade finde sind die Sachen mit China, die ich selbst gefunden habe und die Sachen mit Tegra in VW etc., wobei diese bis auf wenige Modelle ja nun auf Tegra setzen und AUDI bietet halt zwei Versionen an. Ist das jetzt nun der große Misserfolg? Gut es sind Aufträge die fehlen, aber noch kein Genickbruch. Das mit China hat sich ja bisher auch noch nicht so rentiert, da der Ausbau stockt, soweit ich den einen Artikel richtig deuten konnte.

Mir ging es auch mehr um die Insideraussagen zu Nvidia aus'm 3DCenter und das eine andere Forum, von denen Brutus gesprochen hat. Die alten Sachen da brauch keiner mehr ausgraben. Vllt. steht ja das was vom Sterben der dedizierten Grafikkarten, wovon du immer redest. Der heilige Hetero-Core wird vorläufig nicht die enorme Power haben, um eine dedizierte Grafikkarte zu ersetzen. Man kann zwar stark daraufhin optimieren, aber man muss erstmal sehen ob das auch wirklich alle machen bzw. machen werden.
 
Zuletzt bearbeitet:
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Im Gegensatz zu AMD muss Nvidia nicht ums Überleben kämpfen. Da kann man sehr wohl sagen "machen wir nicht", wenn der Gewinn minimal ist. Man hat bei der XBox 1 und der PS3 doch gesehen, dass es nie wirklich das lohnende Geschäft war.

echt? O.o mit dem Gartis Spielen und den Grafik-Extras die nicht AMD only sind hab ich ein anderes Gefühl...
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

echt? O.o mit dem Gartis Spielen und den Grafik-Extras die nicht AMD only sind hab ich ein anderes Gefühl...

Echt? Ich bekomme eher das Gefühl von einem Discounter der vorm aus steht. "Kauft meinen Korb und ich packe noch Obst mit rein!"
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Ach Nvidia:
hört doch auf herumzulügen. Ja solche Aufträge haben einen knüppelharten Vertrag. Aber erstens hat AMD schon die GCN und Kabini Architektur, zweitens rentiert sich das bei den erwarteten Stückzahlen sehr wohl. Hier kann man wohl wieder nicht zugeben, dass AMD mit der geschickten Integration des Grafikchips, der auch x86 Adressen ansprechen kann und so, dank des gemeinsamen Speichers eine sehr enge CPU-GPU Zusammenarbeit ermöglicht, überlegen war was das Angebot anging. Oder Sony wollte, dass CPU und GPU auf einem Die sitzen und da Nvidia außer den Tegra Prozessoren nichts zu bieten hat....

Na ja. Fail for NV. Mögen sie mit Shield scheitern. Bei der PS3 haben sie nicht so rumgeheult, und auch eine Pseudokonkurrenzkonsole rausgehauen.

Und für die Fanboyvermuter: In meinem Rechner rechnen ein i7 sowie eine GTX670
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Skysnake, ich bin bei schon weiter vorne ausgestiegen, aber ich schau mal.

Und das einzige was ich gerade finde sind die Sachen mit China, die ich selbst gefunden habe und die Sachen mit Tegra in VW etc., wobei diese bis auf wenige Modelle ja nun auf Tegra setzen und AUDI bietet halt zwei Versionen an. Ist das jetzt nun der große Misserfolg? Gut es sind Aufträge die fehlen, aber noch kein Genickbruch. Das mit China hat sich ja bisher auch noch nicht so rentiert, da der Ausbau stockt, soweit ich den einen Artikel richtig deuten konnte.

Mir ging es auch mehr um die Insideraussagen zu Nvidia aus'm 3DCenter und das eine andere Forum, von denen Brutus gesprochen hat. Die alten Sachen da brauch keiner mehr ausgraben. Vllt. steht ja das was vom Sterben der dedizierten Grafikkarten, wovon du immer redest. Der heilige Hetero-Core wird vorläufig nicht die enorme Power haben, um eine dedizierte Grafikkarte zu ersetzen. Man kann zwar stark daraufhin optimieren, aber man muss erstmal sehen ob das auch wirklich alle machen bzw. machen werden.
Wo ist denn nVidia groß drin im Automobilbereich?

Die Linkgs gelesen? TI hat die Stelle von nVidia im VW Konzern eingenommen. Darauf hin hatte ja nVidia BMW ins Rampenlicht gezogen, und wieder die Story vom Pferd erzählt, von wegen, das man wieder nen MEGA OMFG WTF Deal mit denen gemacht hätte. Nur davon hat man danach dann auch nie wieder etwas gehört...

Hier nochmals: Texas Instruments Wins Deal With Audi : :: TheGuruReview.net ::
Davor hatte sich aber schon gezeigt, dass die Tegras seltsamerweise ziemlich auf sichwarten liesen, und man in den Geräten dann am Ende tatsächlich TI Chips vorfand. Qualcomm Chips wurden wenn ich mich recht erinnere auch teils statt Tegras verbaut.

Man kann aktuell nur noch sagen, das nVidia in nur wenigen Audis tatsächlich zu finden ist. Das ist aber MEILEN! weit von der Aussage entfernt, man wäre in allen Navi und Entertainmentsystemen in den Autos des VW-Konzerns zu finden... Das ist schlichtweg nicht der Fall. Und zwar nicht nur ein bischen nicht, sondern nicht mal mit ganz ganz ganz viel Augen zu drücken...

echt? O.o mit dem Gartis Spielen und den Grafik-Extras die nicht AMD only sind hab ich ein anderes Gefühl...
Doch, dem ist seltsamerweise so, wobei man nicht genau weiß, wie sich die Zahlen wirklich zusammensetzen. nVidia konnte mit ihren Mobile-OEM-Deals ziemlich viel reisen dieses mal. Ob man das aber wiederholen kann steht noch aus. Über die Verkäufe im Desktop gibt es meines Wissens nach leider keine verlässlichen Zahlen, wie so oft leider :(

Laut AMD haben Sie Anfang 2013 aber mehr GPUs verkauft, als zu jedem Zeitpunkt in 2012. Also insbesondere auch mehr als zum Weihnachtsgeschäft, welches ja normal sehr Umsatzstark ist!

Hier muss man einfach mal den nächsten Quartalsbericht abwarten. AMD konnte scheinbar schon sehr viele Leute mit ihren Never Settle Bundle gewinnen. Zumal bei nVidia eben nichts neues kommt, genau wie bei AMD. Es haben halt auch einige gewartet, was da noch kommen mag. Vor allem Titan hat halt auch viele Leute verprellt. Da wird sich so manch einer jetzt doch 1 oder gar 2 7970 kaufen statt ner Titan.

Echt? Ich bekomme eher das Gefühl von einem Discounter der vorm aus steht. "Kauft meinen Korb und ich packe noch Obst mit rein!"
Es scheint aber 2013 laut AMD ziemlich gut zu funktionieren ;) Man wird einfach schauen müssen, wie die nächsten Quartalszahlen aussehen.

Und nur mal eins. AMD macht selbst mit den aktuellen Preisen noch ein verdammt gutes Geschäft. Die haben ihre Karten schon DEUTLICH mehr verschleudert in der Vergangenheit. nVidia ist im Moment einfach nur abartig Gierig und überzogen teuer... Deswegen erscheint AMD so "billig" dabei sind Sie gar nicht billig, sondern bewegen sich nur in einem normalen Preisrahmen. :ugly:
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Anders herum kann man es auch so sehen, dass die Spiele nicht mehr auf Nvidia optimiert werden und es endlich gerecht zugeht. Ich meine warum meinst du haben Nvidia-Karten einen so geringen Stromverbrauch ? Das liegt daran, dass die alles aus dem Chip gestrichen haben, was nicht zwangsläufig für Spiele (von damals) wichtig ist (siehe GPGPU-Leistung).
Jetzt wird vermutlich die Power der GCN-Architektur zum tragen kommen.

Das ist doch Unsinn. Zwar scheint AMD die Spieleentwickler derzeit wirklich mehr zu unterstützen als Nvidia, aber allgemein von "nicht mehr auf Nvidia optimiert" zu sprechen halte ich für falsch, da es nie so war. zum Thema Stromverbrauch, die Geforce GTX Titan hat einen ähnlichen, afaik sogar leicht niedrigeren Energieverbrauch als eine 7970 GE und ist dabei in allen Belangen überlegen. Es sind also nicht nur weggelassene Features (von denen viele auch die Radeons nicht beherschen).
Es wird sehr oft von Rohleistung im Zusammenhang mit einer Radeon 7970 gesprochen (oder du halt von GCN Power), dabei sind es hauptsächlich die größere Anzahl an Shadereinheiten und die tolle Bandbreite der Radeon, die sie in bestimmten Bereichen schneller machen. Es gibt aber abseits dieser Faktoren auch andere Bereiche, die wichtig sind, sonst wäre eine GTX 680 auch nicht schneller als eine Radeon 7970.
Und was die GPGPU-Leistung betrifft, die ist auch in der Geforce vorhanden. Bei den GK104 Chips fehlt lediglich die Leistung für Berechnungen mit doppelter Genauigkeit und die ist auch in zukünftigen Spielen nicht nötig.

bye
Spinal
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Du vergleichst da aber auch ein ~1 Jahr älteres Produkt mit nem gerade neu herausgekommenen.

Die Fertigung ist da deutlich gereift. Das sollte man nicht unter den Tisch fallen lassen.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Das stimmt, die Aussage, dass Nvidia karten einen so geringen Stromverbrauch haben weil sie Dinge vom Chip gestrichen haben, die für "damalige(?)" Spiele nicht wichtig waren ist dennoch falsch. :)
Außerdem ist es dennoch eine sehr gute Leistung einen so großen Chip trotz etwas niedrigeren Taktraten so Effizient zu machen.
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Nochmal, du vergleichst zwei Chips, die mehr als 1 Jahr auseinander liegen...
 
AW: Nvidia: Grafikchips für die Playstation 4 hätten sich nicht gelohnt

Erstens stimmt das nicht ganz, die GE hat einen Tahiti XT2 und der soll ja angeblich auch durch Verbesserungen an der Fertigung besser sein und ist auch nicht 1 Jahr alt, zweitens ist es fraglich ob sich innerhalb einer Architektur so sehr viel ändert (Kepler ist ja nun auch schon ein paar Monate alt und GK110 gab es auch schon vor der Titan und Tahiti XT -> XT2 war auch kein deutlicher Unterschied), auch was die Fertigung betrifft. Mag sein das Nvidia zeitlich gesehen einen geringen Vorteil hat, aber meine Aussage steht es im Kontext zu folgendem:

Ich meine warum meinst du haben Nvidia-Karten einen so geringen Stromverbrauch ? Das liegt daran, dass die alles aus dem Chip gestrichen haben, was nicht zwangsläufig für Spiele (von damals) wichtig ist (siehe GPGPU-Leistung).

Und das ist schlicht falsch. Ob GK110 nun Energieeffizienz durch eine verbesserte Fertigung oder Blümchenmuster auf dem PCB kriegt, es liegt jedenfalls nicht (nur) daran, dass Transistoren für unwichtige Dinge eingespart wurden. :)

bye
Spinal
 
Zurück