AW: Nvidia Titan V: Auf über 2 GHz stabil gemoddet
Ich arbeite bei einem Grobblechhersteller. Da laufen mehrere Meter breite Bleche mit mehreren m/s durch Kameraarrays die die Dinger in Echtzeit allseitig filmen so dass ein Pixel vielleicht 0,1 mm^2 ist - und aufgrund der Triangulation auch eine Höheninformation hat. Die Hardware muss in der Lage sein, Daten von zig HD-Kameras+Tiefeninfo zu verarbeiten um beispielsweise einen Fehler zu finden, der 0,3 mm tief ist. Und sie darf keine, --> KEINE <-- falsch positiven Ergebnisse liefern weil man keine Produktionslinie sauteuer anhalten will für Falschmeldungen.
Diese Verarbeitung machen aktuell viele viele Quadro-Karten in Racks parallel. Eine TitanV kann das alleine. Mit 10% des Stromverbrauchs und für 10% der Anschaffungskosten.
Klar kommt das extrem auf die Anwendung an und auf das was man als Fehler finden will. Manche Oberflächenfehler sind auch großflächig und kaum von der normalen Textur des produktes zu unterscheiden. Selbst menschen brauchen monate bis sie sowas sicher erkennen. Deswegen brauchste hier Maschinen die lernfähig sind und aus Terabytes an Bildern zuverlässig die STellen finden die ähnlich zu den 100 Stück sind die man ihnen mal als "das ist böse" gezeigt hat. Das ist tatsächlich eine echte DeepLearning anwendung, das System vergleicht in Sekundenbruchteilen Tausende von Bidelr miteinander und lernt was gut und was schlecht ist.
Ich arbeite in nen Glas Werk.(flaschen und Gläser)
Wir stellen so ca. 50000 Flaschen in einer Schicht her und unsere Kontroll Maschinen arbeiten mit laser und Kameras. Dafür brauch man keine Titan.
Ich arbeite bei einem Grobblechhersteller. Da laufen mehrere Meter breite Bleche mit mehreren m/s durch Kameraarrays die die Dinger in Echtzeit allseitig filmen so dass ein Pixel vielleicht 0,1 mm^2 ist - und aufgrund der Triangulation auch eine Höheninformation hat. Die Hardware muss in der Lage sein, Daten von zig HD-Kameras+Tiefeninfo zu verarbeiten um beispielsweise einen Fehler zu finden, der 0,3 mm tief ist. Und sie darf keine, --> KEINE <-- falsch positiven Ergebnisse liefern weil man keine Produktionslinie sauteuer anhalten will für Falschmeldungen.
Diese Verarbeitung machen aktuell viele viele Quadro-Karten in Racks parallel. Eine TitanV kann das alleine. Mit 10% des Stromverbrauchs und für 10% der Anschaffungskosten.
Klar kommt das extrem auf die Anwendung an und auf das was man als Fehler finden will. Manche Oberflächenfehler sind auch großflächig und kaum von der normalen Textur des produktes zu unterscheiden. Selbst menschen brauchen monate bis sie sowas sicher erkennen. Deswegen brauchste hier Maschinen die lernfähig sind und aus Terabytes an Bildern zuverlässig die STellen finden die ähnlich zu den 100 Stück sind die man ihnen mal als "das ist böse" gezeigt hat. Das ist tatsächlich eine echte DeepLearning anwendung, das System vergleicht in Sekundenbruchteilen Tausende von Bidelr miteinander und lernt was gut und was schlecht ist.