Hm, hatte die Fotos eigentlich unter "Da hatte aber jemand Spaß mit Photoshop" abgelegt. Aber wenn Nvidia wirklich eine Ermittlung startet, heißt das für mich, dass das zumindest Design-Samples sind.
Die Fotos weisen zwar deutliche Zeichen für Nachbearbeitung auf (mindestens ein Lüfter komplett Fake, einige Lamellen merkwürdig), sind aber immer noch Fotos. Wer immer die gemacht hat, hatte Zugang zu weit fortgeschrittenen (Kühler-)Prototypen, mutmaßlich sogar zu einer 0-Serie.
Physikalisch wären 20 Siliziumatome (meines Wissens) die Grenze, ab dann übernimmt der Tunneleffekt. Das wären etwa 2nm. Natürlich kann man jetzt nicht so exakt fertigen, denn es gibt eine gewisse Streuung. Man geht von etwa 3nm aus, wobei das reale 3nm sind und nicht diese Prozessbezeichnung,
IBM-Forscher haben schon in den 0er Jahren einen experimentellen 1-Atom-Transistor vorgeführt. Die Prozessbezeichnungen orientieren sich mittlerweile ohnehin am ehesten an der Gate-Breite (zumindest bis 10 nm Intel, alles noch kleinere ist meinem Wissen nach gewürfelt) und die ist, im Gegensatz zur Länge, nicht von Tunnel-Effekten nicht betroffen. Von den aktuell in Produktion befindlichen Prozessen ausgehend haben wir also noch physikalische Reserven für mindestens drei weitere Voll-Nodes, was bei den immer länger werden Zyklen ein 2030er Datum bedeutet. Viel weiter konnte man auch früher nicht in die Zukunft schauen.
Ich finde das immer wieder bemerkenswert, dass Artikel sehr genau geschrieben werden und die Kommentare total einseitig und plump sind.
Da steht ">>>> TOTAL <<<<" Board Power !!!
Nicht reguläre immer verbrauchte Leistung.
TBD = Absolutes Maximum
TDP = Maximum welches im normal betrieb unter Volllast erreicht wird
Eine GTX 1080ti hat garantiert auch 320W TBD
und außerdem stehen die 350W TBD insgesamt für den SKU10 und somit auch für die neue Titan. Ich bin mir sicher, dass ausschließlich die Titan die 350W TBD bekommt und die schwächeren Karten 320W oder 300W.
Titans und Tis hatten in der Vergangenheit ähnliche Leistungen, da letztere nun einmal ein Salvage-Design ist, also mit schlechteren/teildeaktivierten Chips arbeiten muss, was die Effizienz senkt.
Wenn die Karrten 350W schlucken passen sie perfekt zu einer Comet Lake CPU, beide total ineffizient und nicht zeitgemäß.
Ich empfehle einen Blick in die aktuelle PCGH. Wider erwarten hat der 10900K, korrekt mit 125 W PL1 konfiguriert, laut Daves Effizienz-Tests nur 2,0 beziehungweise 0,3 Prozentpunkte Rückstand (Spiele/Anwendungen) auf den 3900X. Also wenn du diese Effizienz als nicht zeitgemäß bezeichnest, dann solltest du dich aus Diskussionen über nicht-Notebook-Hardware zurückziehen.
Igorslab sagte auch das der neue Kühler 160 Dollar (und ohne Steuer) kostet und das die neue eingekerbte Platine auch den Preis nach oben treiben wird. Ich sehe hier keine günstigen neuen Karten von Nvidia in der Zukunft. Igorslab hat RTX Karten gegen Pascal und AMD Karten in Ü20 Profianwendungen(ab~500€) getestet, selbst die günstige RTX 2060S ist im Videoschnitt 250% schneller als eine Pascal Titan(und vs. amd sowieso) und dazu eine bessere Bildqualität beim codieren. Spielerisch lässt mich das RTX eher auch kalt, zu viel Strom, zu hohe FPS Einbruch in Spielen bei zu geringer optischer Verbesserung.
Eine V-förmige Kerbe wird nicht viel Kosten. Rückseite an Rückseite gelegt können solche Formen ohne Schnittverluste produziert werden und der Zuschnitt erfolgt meinem Wissen nach sowieso mit Lasern und nicht mit Sägen, die auf einen geraden Kantenverlauf angewiesen werden. Früher waren einige billige PCI- oder gar ISA-Karten sogar dreieckig, um die volle Anschlusshöhe und die enorme Slot-Länge mit möglichst wenig PCB-Fläche zu verbinden. Der Kühler sieht aber sehr aufwendig aus, ja.
Früher gab es auch mal ein 512bit Interface wäre ja auch möglich macht nur seit langem keiner mehr . Es gab zeiten da gab es nur 64 für die Unterste Budget Karte , 128 für die typische Nvidia 60er Serie fing mit der 6600 Gt an dann für die Oberklasse 256 Bit und 512 dür das absolute High End aber mit der 8800 hat Nvidia mit diesen krummen Interfaces angefangen . ATI später AMD haben für High End immer das größte technisch machbare genommen und Nvidia hat lieber Texturkomprimierungsverfahren entwickelt.
Wenn ich mich richtig erinnere, war das Maximum bei Nvidia ein 384-Bit-Interface und 512 Bit gab es nur einmal, bei ATIs 2900ern. Die Geforce 6000 hatten auf alle Fälle 128 Bit für die 600er und 256 Bit für die 800er Topdmodelle. Gleiches gilt für Geforce 5000, 7000 und 9000. (Dazwischen und danach gab es die Big-Chips mit "krummen" Zahlen.)