Nvidia Project Logan: Beeindruckende Echtzeit-Demo der 2-Watt-GPU im Video vorgestellt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Project Logan: Beeindruckende Echtzeit-Demo der 2-Watt-GPU im Video vorgestellt

Jonah Alben, seines Zeichens Vice President of GPU Engineering bei Nvidia, hat in seinem Blog zwei Videos veröffentlicht, welche die Rechenpower von Project Logan, also dem mobilen Kepler auf Basis des GK110, in Form einer zwei Watt Grafikeinheit zeigen. Zugleich gibt es auch umfassende Informationen, welche Technologien man zukünftig im mobilen Sektor erwarten kann.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Nvidia Project Logan: Beeindruckende Echtzeit-Demo der 2-Watt-GPU im Video vorgestellt
 
Ich hätte nicht gedacht das Grafik für Mobile Geräte SOO schnell so weit entwickelt. Ich dachte eigentlich das sich Mobile gaming noch ne Zeit lang auf grafik schwache Indie Games beschränkt.
 
Hätte ich auch nicht gedacht.

Zum einen finde ich das gut, wenn dadruch endlich mal paar sinnvollere Games rauskommen.
Jedoch spiele ich lieber zu hause am Rechner. Zumal das nur noch mehr dazu führt, dass mein Smartphoneakku dauerleer ist...
Mal abgesehen von der Zeit, die ich dann zusätzlich noch in Mobile Gaming investieren würde :D

Aber bin mal gespannt auf die Entwicklungen.
 
2 Watt:daumen: Aber ich sehe nichts handfestes, kein Beweis dafür das es so ist wie es sein soll. Beim Humanface sieht man ein USB Kabel am diesem PCB Gerüsst stecken, könnte also auch ein abgespieltes Video gewesen sein:schief: Die GPU kann alles was eine Titan auch kann, naja vielleicht preislich gesehen:ugly:
 
Dann werde ich mal den Dämpfer spielen:
JA, es ist beeindruckend, so etwas auf einer mobilen Plattform zu sehen. Der Detailgrad und die Beleuchtung sind beeindrucked. Aber:
seht euch mal die Techdemos zum ersten oder zweiten Tegra an, dann erscheint der Sprung auf einmal gar nicht mehr so groß. Und es ist eben nur eine Techdemo. Ein Programm, das nur den Zweck hat, gut auszusehen. Das jegliche Kompatibilität zu anderen Chips über Bord wirft, um maximale Performance aus den vorliegenden Chips zu holen. Von daher befürchte ich, dass wir diese Grafik auf Tablets erst in einigen Jahren zu Gesicht bekommen (so wie das bei Techdemos immer ist). Dazu gesellen sich Nvidia typische Probleme: Ist ja schön für euch, dass der neue Chip CUDA (für Faceworks) unterstützt. Zum Glück sieht aber die Situation im Mobilechipmarkt nicht so aus wie im Profigrafikmarkt, wo ihr eure Proprietäre ******* durchdrücken könnt, und offene Schnittstellen erst sehr spät, wenn überhaupt per Treiber unterstützt (z.B. ist bis heute kein OpenCL 1.2 Treiber erschienen, und man gibt auf Nachfrage offen zu, dass man "OpenCL nur eine geringe Priorität einräumt".

Und bevor man mich hier als Hater "entdeckt":

In dem PC, von dem dieser Text ausgeht, werkelt eine GTX 670...
 
Das das System 2-3W verbrauchen soll lässt nicht unbedingt auf eine TDP des gesamten SoC von 2-3W schließen; ich schätze es geht eher Richtung 5W.
 
@ Mephisto

Man kann sich schon sehr glücklich schätzen, dass Nvidia mittlerweile aufgewacht ist.
Tegra 1-3 waren technisch gegenüber der Konkurrenz sehr schwach aufgestellt und selbst Tegra 4 unterstützt nicht einmal die meisten API Standards, dafür klotzt Nvidia mit Rohpower, welche sie vermutlich durch die simpleren 20-bit ALUs holen.
Tegra 5 macht einen vergleichsweise gewaltigen Sprung.
Fehlt dann wirklich eig. nur OpenCL 1.2 Support, aber ob das zu dem Zeitpunkt überhaupt eine Rolle spielt?
 
Das will ich in meinem Galaxy s3!
Diese Pixelschleudern (GTA3) machen langsam keinen Spaß mehr :(
 
WTF? Meine Karte packt die Techdemo grad mal mit ca. 25 fps und ca. 170 Watt Verbrauch und da kommt so nen Tegra Chip daher und packt das alles genauso und nur mit ca. 3 Watt. :what:
Ich fühl mich grad irgendwie betrogen. :ugly:
 
Zuletzt bearbeitet:
Vor fast 3 Jahren hab ich auf meinem alten iPhone 4 die Unreal Engine Techdemo "Epic Citadel" getestet, die für damalige Verhältnisse extrem beeindruckend war (ungefähr so wie diese nVidia Demos heute) und kurze Zeit später kam mit Infinity Balde ein Spiel raus, das ziemlich exakt die selbe Grafikqualität geboten hat.

Das Spiel RAGE von Idtech für iOS reicht da auch ziemlich nah drann.

Aber bei Android seh ich da vorerst schwarz. Ich hab noch die Tegra 3 Demos im Kopf, aber ich glaube es gibt kein Android Spiel, das da mithalten kann. Wenn doch, nennt bitte ein paar spiele, würde mich interessieren (auch wenn ich kein Android Gerät besitze)
 
ja spielt es. Boinc läuft inzwischen sogarauf android ;)
Mit Rolle spielen meine ich, ob Nvidias VKZ dadurch überhaupt Nachteile bekommen könnten.
Ail hat glaube ich mal etwas von Auto Deals erwähnt, wo Tegra nicht reinkam weil er die "neusten" APIs nicht unterstützt hat.


WTF? Meine Karte packt die Techdemo grad mal mit ca. 25 fps und ca. 170 Watt Verbrauch und da kommt so nen Tegra Chip daher und packt das alles genauso und nur mit ca. 3 Watt. :what:
Ich fühl mich grad irgendwie betrogen. :ugly:
Die Techdemo für die Geforce-Reihe ist etwas anders programmiert, mehr Realismus, weniger Performance.
Das ist Kepler, dass ist keine magic new architecture.
Man muss natürlich mit einigen Einschnitten bei 192 ALUs und dem TPD-Rahmen rechnen.

Fehler?

Bild: OpenGL 4.4

Text: OpenGL 4.3
Joa.
 
Die Techdemo für die Geforce-Reihe ist etwas anders programmiert, mehr Realismus, weniger Performance.
Das ist Kepler, dass ist keine magic new architecture.
Man muss natürlich mit einigen Einschnitten bei 192 ALUs und dem TPD-Rahmen rechnen.

Trotz allem seh ich da kaum nennenswerte Unterschiede und wenn man das Verhältnis dann betrachtet, ist das Ergebnis auch nicht grad von schlechten Eltern. ;)
 
Ich frage mich wieviel so ein Chip kostet?

Wäre auch interessant zu sehen wieviel 100 dieser Chips im Cluster leisten. Wenn einer davon 2-3W verbraucht würden 100 davon nur soviel wie ein Titan verbrauchen...
 
Trotz allem seh ich da kaum nennenswerte Unterschiede und wenn man das Verhältnis dann betrachtet, ist das Ergebnis auch nicht grad von schlechten Eltern. ;)
Du weißt wie es ist, "kleine" sichtbare Verbesserungen können oft ungeheuer viel Performance kosten. Bei jedem Spiel sieht Very High vs. Normal nicht 5 mal besser aus, aber es läuft 5 mal schlechter. (Mal pauschal ohne genaue Werte)

Ich frage mich wieviel so ein Chip kostet?

Wäre auch interessant zu sehen wieviel 100 dieser Chips im Cluster leisten. Wenn einer davon 2-3W verbraucht würden 100 davon nur soviel wie ein Titan verbrauchen...
Logan ist ein Chip der erst in Zukunft verfügbar sein wird, da muss man sich natürlich der Konkurrenz stellen.
Wie Nvidia dann preist, muss man abwarten, ebenso welche Konfigurationen sie anbieten.

100 dieser Chips im Cluster würden auch nicht nur 100 mal mehr verbrauchen und 100 mal schneller sein. Das skaliert deutlich schlechter.
 
Logan ist ein Chip der erst in Zukunft verfügbar sein wird, da muss man sich natürlich der Konkurrenz stellen.
Wie Nvidia dann preist, muss man abwarten, ebenso welche Konfigurationen sie anbieten.

100 dieser Chips im Cluster würden auch nicht nur 100 mal mehr verbrauchen und 100 mal schneller sein. Das skaliert deutlich schlechter.

Entschuldige bitte, ich hab manchesmal ein Problem meine Gedanken auch klar zu formulieren *g*

Wieviel haben vergleichbar große Chips in der Vergangenheit gekostet?

Das mit der Skalierbarkeit wage ich mal zu bezweifeln, es kommt ganz auf den Anwendungsbereich an. In Spielen bekommt man wohl keine 100-fache Leistung, im Computing Bereich dank CUDA etc. womöglich schon. Wir reden hier von einem Chip der vom GK110 abstammt, also dem Chip der in großer Stückzahl in Supercomputern verbaut wird. Natürlich skaliert der bei Computing ausgezeichnet...
 
Wieviel haben vergleichbar große Chips in der Vergangenheit gekostet?

Das mit der Skalierbarkeit wage ich mal zu bezweifeln, es kommt ganz auf den Anwendungsbereich an. In Spielen bekommt man wohl keine 100-fache Leistung, im Computing Bereich dank CUDA etc. womöglich schon. Wir reden hier von einem Chip der vom GK110 abstammt, also dem Chip der in großer Stückzahl in Supercomputern verbaut wird. Natürlich skaliert der bei Computing ausgezeichnet...
Tegra 3 soll angeblich 15-25$ Dollar pro Chip gekostet haben.
Wie viel Nvidia für Tegra 4 will und dann später für Tegra 5 ... :huh:

Und auch bei deinem Anwendungsbereich Compute wird man keine optimale Skalierung hinbekommen, 100 Chips zu verbinden wird seine Auswirkungen haben, da ist es von der Effizienz besser größere Chips zu nehmen.
 
Das Video und was der nette Herr dazu zu sagen hat beweist vor allem eines:

Wie sinnlos, ineffizient und mit extrem geringem optischen Mehrwert man bei heutigen High-End-GPUs (Beispiel Titan) irgendwelchen Firlefanz berechnen lässt, der für einen Großteil der Bevölkerung gar nicht wahrnehmbar ist es sei denn man weist im Vorfeld explizit darauf hin. Dabei geht es doch viel effizienter bei minimal schlechterer Optik...

Ansonsten ist das doch eine Techdemo wie jede andere von Nvidia, denn das PR-Geschäft haben die Jungs von Huan vor allem bei Präsentationen gut drauf. Darüber was wirklich im Endgerät an Grafik ankommt, was die Chips kosten, wie groß die sind, wie der Stromverbrauch ist etc. sagt das wenig aus.
 
Zuletzt bearbeitet:
Zurück