News "Die Leute denken, wir machen GPUs ...", sagt Jensen Huang und ruft das KI-Zeitalter aus

Blödsinn. Der Kunde hatte schlicht keine Wahl. Wer Leistung oberhalb einer GTX 1660 Ti wollte, musste die RT-Hardware mit Turing mitkaufen, egal ob er es nutzen wollte/konnte oder nicht, und egal ob es ihm gefällt oder nicht.
Gibt es keine AMD Karten?

Ich kenne persönlich keinen, der die RT Hardware nicht gewollt hätte. Aber das ist nur meine Blase!
 
Gibt es keine AMD Karten?

Ich kenne persönlich keinen, der die RT Hardware nicht gewollt hätte. Aber das ist nur meine Blase!
Als ich damals die 2070 gekauft hatte wollte ich kein RT. Ist damit eh nicht wirklich nutzbar, von der 2060 ganz zu schweigen. Leider hatte die 5700 XT damals ewig die Blackscreen-Problematik.

Schlimm war ja nicht nur, dass man es mitkaufen musste, sondern das es Anfangs kaum Futter dafür gab. Ich finde man hätte es auch als Beschleunigerkarte etablieren können, so wie damals die 3D-Beschleunigung. Das hat sich auch schnell etabliert, weil die Leute es wollten. Wenn die Mehrheit der Gamer wirklich RT wollte (was ich selbst heute noch bezweifle weil die Technik immer noch in keinem Verhältnis zu den Kosten steht), hätte es auch so geklappt.
 
Als ich damals die 2070 gekauft hatte wollte ich kein RT. Ist damit eh nicht wirklich nutzbar, von der 2060 ganz zu schweigen. Leider hatte die 5700 XT damals ewig die Blackscreen-Problematik.

Schlimm war ja nicht nur, dass man es mitkaufen musste, sondern das es Anfangs kaum Futter dafür gab. Ich finde man hätte es auch als Beschleunigerkarte etablieren können, so wie damals die 3D-Beschleunigung. Das hat sich auch schnell etabliert, weil die Leute es wollten. Wenn die Mehrheit der Gamer wirklich RT wollte (was ich selbst heute noch bezweifle weil die Technik immer noch in keinem Verhältnis zu den Kosten steht), hätte es auch so geklappt.
Erstmal interessiert bei pauschalisierten Aussagen, das Erlebnis des einzelnen rein gar nicht! Ich meine tatsächlich konnten einige schon bei der 2070 den RT funktionen etwas positives abgewinnen.

Grundsätzlich blieibt aber, das über die Zeit von RTX2000 bis Heute AMD die meiste Zeit gute Konkurrenzprodukte zur Hand hatte, wenn man RT ausgeklammert hat.

Von daher musste man die RT Hardware nicht mit kaufen und ich hätte auch keine Karte anders gekauft.

So viel schlechter war denn auch das PLV nicht, zu keinem Zeitpunk tin der Zeit. (Ich klammere bei solchen Aussagen bewusst Abverkaufspreise aus)
 
6800 Ultra vs 4090

53 GFLOPS vs. 82.58 TFLOPS - Die Rechenleistung hat sich um Faktor 1550 erhöht.

200W vs 450W - Die Leistungsaufnahme hat sich um Faktor 2,25 erhöht.

6800 Ultra
Transistors Count
125M
Transistors Density
435.5K TRAN/mm2

4090
Transistors Count
76.3B
Transistors Density
125.5M TRAN/mm2

125 Millionen Transistoren vs 76300 Millionen Transistoren
0,0000016 Watt pro Transistor vs 0,000000005897772 Watt pro Transistor

Die Effizienz pro Transistor hat sich um Faktor 271 verbessert.

Ja, ist total schlecht. :lol:

Disclaimer: Ich habe hier nur "grob drübergerechnet". Eigentlich sind die Wattangaben der Karten "Total Board Power", also inklusive VRAM und allen anderen Bauteilen. Das habe ich nicht rausgerechnet sondern TDP als Chip-Leistungsaufnahme genommen.

Wie du selbst vorgerechnet hast. Bei 2,25 fachen Energiebedarf und der 610 fachen Menge an Schaltungen ist das Ding nur 1550 x schneller. Finde ich jetzt nicht soooooo geil.

Oder anders ausgedrückt:
NV40 hat ne Die Size von 287 mm², AD102 ist bei 609 mm². Du bekommst also 2,12 6800 Ultra in eine 4090, nach Die Fläche. NV40 hat 222 Millionen Schaltungen, das mal den 2.21 bist du bei 460 Millionen.

Nimmst du jetzt die 76300 von AD102 bekommst du, bei gleicher Belichtung, 366 NV40 in einen AD102 bei 609 mm². Redundante Teile weg ( keiner brauch 366 x das Spieicherinterface etc. ) und passt du den Energieverbrauch an dann wirst du irgendwo bei 150 rauskommen. Das heist eine 4090 ersetzt 155 6800 Ultra?

Bitte berichtigt mich wenn ich mich verrrecht habe, aber persönlich finde ich das halt immer noch nicht gut. Nicht nach 20 Jahren :D
 
Und wenn dann Millionen durch Technologien wie 3D-Drucken und KI arbeitslos geworden sind, brechen die Volkswirtschaften in sich zusammen. Mit unserem derzeitigen Sozial- und Wirtschaftsmodell verkraftet keine Volkswirtschaft einen derart hohen Arbeitslosenanteil.
Oder brauchen wir wirklich 40 Millionen Friseure, Abodrücker und Klinkenputzer?

Wenn es zuviele sind, müssen es eben weniger werden... oder wie Pistorius schon anmerkte, Deutschland muss kriegstüchtig werden. Das wird schon helfen .Und was nach dem Super-Müsli-Klima-Öko-Wahn übrig bleibt, bekommen jene die noch da sind, übrig geblieben sind, gepriesen mit der KI, Windrad im Garten und Photovoltaik auf dem Dach.
Du wirst nicht einer von diesen sein!:devil:
 
Er hat das bei der Show gesagt was ich auch schon seit ner Weile sage, seit ChatGPT groß rauskam.

AI ist die nächste industrielle Revolution. Wird alles verändern. Jensen hat da 100% Recht. Jobs werden überflüssig werden und ich rechne da auch mit meinem Job in den nächsten Jahren mit.
Ja, es werden vllt. einige Jobs überflüssig (wie bei Einführung der Roboter in der Industrie) , aber um Geld zu generieren braucht es Konsumenten. Die brauchen Jobs um konsumieren zu können. Der Hauptnutzen der KI wird darin liegen, unser Kaufverhalten noch wesentlich besser als jetzt schon zu steuern. Kurz, noch mehr Konsum, noch mehr Abhängigkeit bei (für die Industrie) minimierung der Kosten.
 
Ich lese die ganzen Kommentare hier und habe gleichzeitig noch diesen Artikel aus meiner Wochenzeitung im Kopf. Der Überwiegende Teil ist hinter einer PayWall, aber der Header sagt im Grunde das Wichtigste: "Ein amerikanischer Chiphersteller ist mehr wert als alle deutschen Großkonzerne zusammen." Allein mit 'Ultra Details' im nächsten Star Wars Titel wird das wohl nicht zu erreichen gewesenn sein.

Grüße

phila

Quelle: https://www.zeit.de/2024/10/nvidia-chiphersteller-aktienkurs-ki-gpu
Darauf sollte man nicht zu viel geben. Und rein technisch betrachtet ist Nvidia kein Chiphersteller sondern nur Designer. Herstellen tut das ganze Samsung bzw. TSMC. So viel zur Qualität des Artikels.

Nvidia ist mittlerweile auch mehr wert (am Aktienmarkt) als Amazon oder Alphabet (Google). Nur Microsoft und Apple liegen noch vorne. Nvidias Kurs stieg an einem Tag um den gesamten Wert von Netflix.
Hältsts du das für gerechtfertigt?

Das ist klassische Überbewertung. Sofern ich es richtig im Kopf habe übersteigt die Bewertung über 100 Jahre Gewinn was einfach lächerlich ist. Wenn Nvidia wirklich die einzigen wären, die ML/AI-Beschleuniger herstellen könnten lasse ich es mir eventuell einreden. Aber sie sind nur der derzeitige Marktführer in einem komplett neuen Segment mit der Konkurenz dicht dahinter und der weiteren Entwicklung des Marktes in den Sternen.
VR ist auch so toll nur die Einstigehürde ist zu groß und damit die Verbreitung zu klein, weswegen es relativ wenig hochwertigen Stoff dafür gibt.
Nicht nur die Einstiegshürde, ein nicht geringer Teil des Marktes kann es auch einfach nicht brauchbar nutzen wegen Motion Sickness.
 
Kenne ich von nicht aus indem, als dauerhaftes Problem. Sofern Brille und PC nicht zu schlecht sind.
Hat damit nur teilweise zu tun. Hängt einfach nur mit der visuellen Wahrnehmung zusammen. Gibt auch Leute, für die 3D Filme im Prinzip gleich aussehen wie regulär 2D (gehöre selbst dazu).

Würde jedem VR-Interessierten raten, es erst einmal in einem VR-Cafe auszuprobieren, bevor man die Investition tätigt.
 
Hat damit nur teilweise zu tun. Hängt einfach nur mit der visuellen Wahrnehmung zusammen. Gibt auch Leute, für die 3D Filme im Prinzip gleich aussehen wie regulär 2D (gehöre selbst dazu).

Würde jedem VR-Interessierten raten, es erst einmal in einem VR-Cafe auszuprobieren, bevor man die Investition tätigt.
Der größte Teil der Beschwerden ist selbst begünstigt, zum Beispiel durch zu geringe frameraten. Die dann zu deutlich ausgeprägtem motionsickness führen.

Natürlich gibt es auch ein paar, die es aus medizinischen Gründen nicht genießen können.

Gibt auch welche, die generell nicht zocken können. Ausnahmen gibt es immer.
 
Zurück