Vielen Dank, aber was willst du uns damit neues (
1,
1.1,
2) sagen?
Hmm... mal sehen...vielleicht, dass der Artikel zu PX2 zwar interessant, aber leider daneben liegt:
Mal allein die technischen Daten von PX2 betrachtet:
4x Denver Cores
8x ARM A57 cores
2x Parker iGPUs
2x Pascal GPUs
8TF SP performance
250W
Die Parker iGPUs dürften bei jeweils maximal 0.5 TF SP liegen - selbst das ist hoch gegriffen TX1 schafft aktuell zwar 1TF - aber nur in half precision und die iGPUs der ARM Chips werden hier nur zur Unterstützung benutzt.
Das bedeutet, die beiden Pascal GPUs müssten je 3,5TF SP bei je 100W Leistungsaufnahme bringen. Die verbliebenen 50W rechne ich den ARM Chips und der Peripherie zu (und das ist noch sparsam geschätzt). Die ganzen Eingänge für die Kameras werden mit sehr großer Sicherheit über DSPs geleitet, weil die CPUs einfach nicht genug Schnittstellen haben, um alle auf einmal zu steuern. Die Kameras laufen auch nicht über ein Bussystem. Dafür sind es einfach viel zu viele Anschlüsse. Es sind direkte Feeds.
Um die 3,5TF pro GPU zu schaffen müssen diese mindestens in der Leistungsklasse eines GM204 spielen - aktuell allerdings nicht innerhalb von 100W pro GPU zu machen.
Selbst mit der besseren Effizienz des 16nm FF+ Prozesses wird es schwer, da ran zu kommen. Die Wahl besteht nämlich nur aus 1) 70% weniger Leistungsbedarf, 2) Doppelte Transistordichte, 3) 65% mehr Geschwindigkeit bei gleicher Effizienz wie bei 28nm - Oder eben einer Mischung bei abnehmenden Vorteilen der einzelnen Punkte.
Nehmen wir mal einen Kompromiss an, der noch etwas unter 50% Leistungsaufnahme spart.
Damit ist man noch immer mindestens bei einem GP104 Chip - wenn sie wirklich ihre 8TF halten wollen, wäre allerdings ein GP100 Chip angebrachter, um Probleme mit Multi-GPUs auszugleichen.
Das passt dann auch besser zum eigentlichen Zweck von PX2.
Das Modul ist interessant für die Entwicklung von autonomen Autos, aber definitiv kein Produkt für die Serienfertigung.
Als Entwickler haben wir gern Chips mit Dampf... vor allem wenn das Entwicklungsgebiet noch so viele Jahre von einer Serienproduktion entfernt ist.
Dazu kommen noch die besonderen Anforderungen zum Temperaturbereich. Die Chips müssen bei -40°C Umgebungstemperatur genauso gut funktionieren, wie bei 80°C (Innenraumtemperaturen in einem Auto kommen selbst bei uns im Sommer auf über 60°, wenn nicht gekühlt wird - also wenn das Auto geparkt ist - und wenn das Steuergerät im Motorraum sitzt muss es auch bis zu 120°C aushalten - bei laufendem Motor)
Alles in allem kann man eine GPU im Auto schlicht nicht mit ähnlichen Leistungsdaten fahren, wie in einem PC.
Die Bedingungen sind einfach zu verschieden.
In Anbetracht des Preises von Entwicklungs-Steuergeräten und der benötigten Leistung unter den genannten Bedingungen, können eigentlich nur GP100 Chips unter der Haube stecken. alles andere würde zu heiß laufen und / oder zu wenig Leistung bringen.
Wir sind auch noch *mindestens* 5 Jahre von einer Serienprodution entfernt. Für eine frühere Einführung sind die Probleme für autonomes Fahren in Städten noch zu groß. Kein Hersteller will der erste sein, bei dem das System versagt.
Damit sind wir dann wieder beim Zauba Shipping Dokument.
Eben jenes Shipping Dokument wurde doch gern benutzt, um das Vorhandensein von Big Pascal Silizium zu beweisen - und den Tapeout zu Juni 2015... was einfach nicht zu den Teilen auf dem Shipping document passt.
Sein Argument ist ja auch nur, dass solche Tools deutlich vor dem Vorhandensein der Testobjekte gekauft werden.
Mit all den Daten kann man nur schließen, dass es aktuell keine Big Pascal Chips gibt.
Gameworks hatten wir, sogar recht früh. Aussagen der Hersteller sind hier wertlos. Schuldige werden nichts zugegeben, Beschuldigende nichts aussagen, was Ihnen eine Verleumdungsklage einbringen könnte, wenn sie es nicht beweisen könnten. Wenn sie es beweisen könnten, würde es längst Gerichtsverfahren geben.
Jepp, Gameworks hattet ihr recht früh als Thema... leider eben keine Aktualisierung seit Jahren.
Einen Mehrwert kann man dennoch von Aussagen durch Entwickler bekommen.
Immerhin hat Nvidia ja letztes Jahr die Terms and conditions so angepasst, dass theoretisch auch Lizenzen mit Zugang zum Gameworks Sourcecode möglich sind.
Nutzt das auch nur ein Entwickler, oder bleibt es bei den Black Box DLLs?
Physx vs. Havok vs. Bullet hatten wir. edit: In Ausgabe 08/2013, das ist zugegebenermaßen schon etwas her.
Wäre vielleicht ein Update wert - vor Allem da viele Indie-Spiele ja auch mit Physikeffekten arbeiten.
Eine Liste von Gameworks/GitG-Titeln hatten wir nicht - empfändest du die, also eine reine Auflistung, wirklich als Mehrwehrt gegenüber den Promo-Liste den Hersteller, die sich ja mit dem Erfolg ihrer jeweiligen Programme brüsten wollen?
Ich dachte da nicht an eine direkte Liste mit den 15 Spielen von 2015 mit GW...
Ich dachte eher an eine Kolumne / einen Bericht zum realen Marktanteil im Vergleich zur Wahrnehmung, die ja doch sehr auf AAA Titel geprägt ist, während die überwältigende Mehrheit der Spiele diese Feature-Schlacht schlicht ignorieren.
AMD hatte bis vor kurzem nichts vergleichbares.. daher lohnt sich da eine Untersuchung nicht.
Die Anzahl der in Magazinen getesteten Spiele ist ja schon allein wegen der zeitlichen Möglichkeiten und dem begrenzten Umfang eines Magazins sehr reduziert.
Da wäre ab und an mal eine kleine Erinnerung, wie viele Spiele es da draußen wirklich gibt, und wie viele davon sich mit den proprietären Features schmücken, mal interessant.
Ich weiß grad nicht, auf welcher Computec Seite ich es gelesen hab... letztes Jahr waren es alleine auf Steam über 2800 neue Spiele.
28nm-Entwicklung - hatten wir halbwegs. Einerseits klingt das Thema immer mal wieder an, andererseits hatten wir vor ca. einem Jahr ein "Retro" zur HD 7970 als erster 28nm-Karte. (Ausgabe #172)
Hier wäre ich für ein ähnliches Retro Special für Nvidia Fans, die noch immer ihre 600er Karten benutzen und aktuell wohl nicht mehr wirklich wissen, wie sie sich noch einordnen sollen. auf eBay sind die ersten Kepler GPUs ja auch noch zu finden.
Leider ist es ja nicht garantiert, dass die 600er Karten die gleiche "Treiberliebe" wie die neueren 700er genossen haben.
GT 930 haben wir auf dem Schirm - aber bisher gibt's noch keine Karten und nur Gerüchte.
Ich kann mich da jetzt auch nur auf
WCCFtech beziehen.
"Schneller als 80% der iGPUs"? Meintest du die Intel-Geschichte, nach denen ihre iGPU schneller als 80% der eingesetzten Grafikkarten sind?
Sorry, dazu hätte ich wohl mehr schreiben müssen...
Ich beziehe mich auf Angaben von Nvidia zur GT 710:
GT 710 Seite
Was Budget/Mengenverteilung angeht: Da hast du sicherlich recht, aber die Gegenfrage muss erlaubt sein: Wie groß ist der Prozentsatz der Leute in diesem Bereich, die sich so für Ihren PC interessieren, dass sie sich Gaming-orientierte Hardware-Zeitschriften kaufen?
Gute Frage: Ich tippe auf mehr als man glaubt. Vor allem weil die meisten Spiele einfach schon sehr gut mit einer Karte aus der Preisklasse funktionieren.
Sicher werden ein paar Enthusiasten murren, aber immer nur high end beschränkt euch auf eben diesen Markt der Leserschaft.
Ich selbst habe aktuell jeweils eine R9 290 in unseren PCs verbaut, allerdings baue ich ab und an auch PCs für andere.
Da sind passende Informationsquellen unerlässlich.
Hatten wir im Heft #162 (04-2014) - also ein Update des Artikels.
Eine der Ausgaben, die es nicht in mein Regal geschafft haben.
Hatten wir im Heft bedeutet jeweils in den letzten, gefühlt 12 Monaten, vielleicht auch 15-18.
Ihr hattet Skalierungstests zu Spielen... aber einen Test zum Verhalten bei gleichzeitiger Benutzung von Browsern mit und ohne Wiedergabe von Videos habe ich dann wohl verpasst.
So.. nu genug... Zeit für Karneval.