@Prozessorarchitektur
Ich verstehe. Mehr shader ist also schlecht für Temperatur und Stromverbrauch.
Und es treibt die kühlungsbedarf in die Höhe. Da es also auch aufwendiger ist zu kühlen braucht der Kühler auch immer mehr Strom. Und klar je mehr RAM desto wärmer wird es.
Man müsste also 50 cu je Chip mit weniger takt und weniger Spannung realisieren. Würde man da mit noch weniger cu also mit shader daher kommen, könnte man zwar den takt wieder erhöhen also sagen wir bei 35-40 cu aber das würde nicht reichen weil es trotz mehr takt eben dann auch wieder mehr Stromverbrauch entsteht.
Es ist somit verdammt schwer. Es wurde sogar getestet das es bei cpu 128 Kerne mit halt weniger takt. Also 2 ghz anstatt 4 und wenn man diese voll auslasten könnte würde diese wohl auch ne gewisse rohleistung statt finden. Also man könnte wenn man wollte 100 cu zwar schon schaffen, müsste jedoch dann den takt auf 1 ghz begrenzen. Das würde zwar gehen aber du schreibst ja das je mehr shader die Temperatur steigen lässt.
Also können sie das leider auch nicht machen. Dann der Punkt den du ja anspricht das shader verdammt viel Platz verbraucht.
Blöd das dies somit nicht geht. Wir Bräuchen also ne total neue Technik wo mit weniger Shader und wenig tskt verdammt viel Leistung herauszuholen ist.
Es sei denn nvidia und AMD schaffen es durch nur reine fp 16 einheiten anstatt 32 die Leistung zu erhöhen. Oder man macht die shader so flexible das sie mit egal ob flaot oder fp oder sonst was mit gleicher Leistung umgehen könnten. Alles halt nur noch mit 16er einheiten. So wie es halt damals amd mit fma 128 bzw avx 128 da mehrere davon avx 256 und so zusammen übertroffen hatten. Könnte mir sowas gut vorstellen.
Das was ich damals auch gut gefunden hatte waren die 1000 Serie von nvidia die Bandbreite einsparen konnte. Sowas könnten die im chiplet Bereich also rein stecken. Je weniger Bandbreite gebraucht wird weil eingespart spart es am Ende doch auch stromverbrauch weil so viel eingespart wurde. Und man dadurch ja auch weniger Speicher Bausteine brauchen tut.
Und mir ist zwar was eingefallen aber das würde wohl die shader noch heißer werden lassen. Die shader einfach verkleinern also ohne sie shrunken zu müssen.
Also sie entschlacken.
Je kleiner jedoch desto schwerer werden diese dann zu kühlen sein. Egal wie man es dreht und wendet, das Problem ist also die Temperatur, Platz bedarf und Stromverbrauch.
Bin somit voll gespannt wie sie das Problem lösen wollen. Denn ich sehe hier nur lauter Teufelskreise.
Ich bin ja zumindest froh das wir solche Probleme nicht im Bereich cpu haben. Das wäre wohl das schlimmste wenn es bei gpu und cpu die selben Probleme sind.
Aber auch bei cpu wird es irgendwann mal zu solchen Problemen kommen. Denn mal ehrlich fad es 80 mm2 chipfläche ist schon verdammt wenig. 40 oder gar 20 würde wohl dann die selben Probleme wie bei der gpu sein, weil es da dann haar genau so ist. Und ich habe also noch das Glück das es eben ich diesen habe und mir dann um nächsten, übernächsten bzw über über nächten cpu eben von solchen Problemen nicht merken werden weil ich mit der jetzigen ich für ne sehr lange Zeit meine Ruhe haben werde.
Ohne oc hält ne CPU also länger durch.
Wird also wohl auch bei ner gpu genauso gelten.
Also verabschieden wir uns schon mal von hohen gpu takt und von mehr shader ebenso.
Dann muss man da sich gut überlegen. Wenn shader bei der gpu wie avx Einheiten ist, wenn man also diese nicht nutzt dann wird auch die gpu Kühler bleiben. Dann muss also der Umfang der Funktionen der shader sich reduzieren. Ich verwende bei der CPU ja auch garkein avx und siehe da diese CPU wird stromsparender und Kühler. Ich verwende also noch nicht mal avx 1. Wenn es möglich ist auch bei der gpu solche Einheiten auszulassen warum ja nicht. Villeicht hilft das ja usn weiter, wer weiß.