Geforce RTX 3080: Neues Renderbild zum Leak mit HBM-Speicher

Das trojanische Pferd hat ermöglicht das du darüber schreiben kannst. Koduri hat nämlich nicht nur Retinadisplays entwickelt sondern auch HBM. Für beides hatte er anscheinend genug Zeit, Personal und Geld. Bei Vega eher nicht weil sich AMD genötigt sah ihm die Entwickler abzuziehen und das Budget zu kürzen. Dafür ist Vega eigentlich noch gut geworden.
 
Dein BSP. ist zwar schön und gut und durch dein Platzsparen auch mehr Leistung möglich aber mehr Leistung mehr zu zahlen für den Endverbraucher.

Die Hersteller machen es ja nicht zum Spaß und auch wenn sich zahlen immer super anhören und auch lesen, müssen diese auch die Leistung auf die Straße bringen können und das hat HBM nicht. Das einzige wo ich immer wieder User wegen HBM jammern höre war weil sie diese besser übertakten konnten. Jedoch brachte dies auch keine Leistung auf die Straße.

Schau dir die VII an?? Wo bringt denn diese Karte bitte Leistung auf die Straße mit ihrem HBM? Da ist ja sogar die kleine Schwester 5700XT ganz nah dran und das bei einer Karte die 300€ Taler weniger gekostet hat. Ja klar jetzt bekommst du die VII auch für 550€ aber das hat seinen Grund, denn diese Karte ist EOL und dies bestimmt nicht weil die Karte so ein tolles Spielzeug war sondern weil die keine Leistung bringt wenn schon die 5700er da in der Nähe ist.

Daher weiß ich jetzt noch immer nicht wo der Vorteil bei HBM liegt außer an den Rohdaten die ich in keinster Weiße je gesehen hätte?
 
Zuletzt bearbeitet von einem Moderator:
Das trojanische Pferd hat ermöglicht das du darüber schreiben kannst. Koduri hat nämlich nicht nur Retinadisplays entwickelt sondern auch HBM. Für beides hatte er anscheinend genug Zeit, Personal und Geld. Bei Vega eher nicht weil sich AMD genötigt sah ihm die Entwickler abzuziehen und das Budget zu kürzen. Dafür ist Vega eigentlich noch gut geworden.

Na ja, die Entwicklung der ersten Grafikkarte mit HBM (mit Betonung auf mit) und die die Entwicklung von HBM als solches sind aber zweierlei Schuhe.
Wann soll er diese denn geleistet haben?
Irgendwie hast du ja recht, der Koduri tut mir ja auch schon fast leid und er hätte es vielleicht nicht verdient das man so über ihn spottet.
Denn wer weiß wenn er sich dazumals für GDDR5 entschieden hätte und heute noch bei AMD wäre und sich hier und jetzt für HBM2(E) enschieden hätte wäre er jetzt vielleicht der große Held.
Aber so wie es eben oft im Leben vorkommt, ist das Timing entscheidend:
HBM war damals preislich einfach nicht Konkurrenzfähig und hatte auch noch keinen signifikanten Bandbreiten Vorteil gegenüber GDDR5X so wie es jetzt der Fall ist.
Die Stromersparnis ok lass ich gelten.

Daher ist alles was bleibt: Hätte, hätte Fahrradkette.

Wikipedia:
Die Entwicklung von HBM begann im Jahr 2008 bei AMD. Version 1 wurde offiziell im Jahr 2013 von der JEDEC verabschiedet, Version 2 im Jahr 2016.


Erstmals verbaut wurde HBM 1 auf den Grafikkarten Radeon R9 Fury, Radeon R9 Fury X[6] und der Radeon R9 Fury Nano der AMD-Radeon-R300-Serie.

Heise online:
Raja Koduri wechselte 2013 als Corporate Vice President Visual Computing zurück zu AMD, nachdem er bei Apple für einige Jahre den Chefposten des Bereichs Graphics Architecture innehatte. Von 2001 bis 2009 arbeitete er als Chief Technology Officer bereits bei AMD beziehungsweise ATI und war unter anderem an der Entwicklung des R300-Grafikchips (Radeon HD 9700/Pro) beteiligt.
 
Das trojanische Pferd hat ermöglicht das du darüber schreiben kannst. Koduri hat nämlich nicht nur Retinadisplays entwickelt sondern auch HBM. Für beides hatte er anscheinend genug Zeit, Personal und Geld. Bei Vega eher nicht weil sich AMD genötigt sah ihm die Entwickler abzuziehen und das Budget zu kürzen. Dafür ist Vega eigentlich noch gut geworden.
Raja Koduri entwickelte das Subsystem für Radeon-GPU's, so dass man den Speicher auch anbinden konnte. Unter Führung von Bryan Black wurde der Speicher bei AMD (ab 2008) entwickelt, dass stimmt, ob Koduri daran schon beteiligt war ist ungewiss, aber möglich. Samsung und SK-hynix waren AMD's Partner in der Entwicklung.

Als erstes verwendete ihn NEC auf Aurora TSUBASA, danach AMD. Das Koduri die Displaytechnologie entwickelte glaube ich nicht, er war maßgeblich daran beteiligt das sie eingeführt wurde und dann auch beim Verbraucher ankam, auch das stimmt (vor allem IPS). Damit hat einen Trend eröffnet der die PPI ansteigen lies.
Die Hersteller machen es ja nicht zum Spaß und auch wenn sich zahlen immer super anhören und auch lesen, müssen diese auch die Leistung auf die Straße bringen können und das hat HBM nicht. Das einzige wo ich immer wieder User wegen HBM jammern höre war weil sie diese besser übertakten konnten. Jedoch brachte dies auch keine Leistung auf die Straße.
Ist sie überhaupt nicht, stellt mal auf hohe/höchste Details und 4k, dann weißt du wer vorne ist. Dann hilft auch kein GDDR6 weil die 5700xt auch nahe der 2080 rauskommt. Bei der RVII gibt es fast nie stuttern, auch bei 30fps nicht, was an der Größe des VRAM und wenn nötig der Bandbreite liegt. Das läuft so fluffig da kann man sich echt nur wundern. Meine Frau ist jedenfalls begeistert und braucht nicht mehr, die GPU kannst auch nur mit 180 Watt betreiben, ist wie eine Nano. Dicker Brummer nie am Limit. Man bekommt sie dafür aber nie wirklich ausgelastet, was ja auch Nachteile hat. Wenn du das willst, musst du darauf einprügeln was kaum Sinn macht.

Die 16GiB VRAM sind einfach nice, sind zudem schnell genug angebunden. Und Argumente in Richtung 16GiB braucht keiner, wozu spielen dann welche mit der Titan und 24GiB? Speicher kann man nie genug haben.:D
 
Zuletzt bearbeitet von einem Moderator:
Das sagt noch immer nichts aus wie die VII mit 16GB GDDR6 performt hätte. Mir ging es ganz klar um diese HBM Geschichte wo ich bis heute auf die Erlösung warte die hier gerne eingeworfen wird als das Monster!
 
Und Argumente in Richtung 16GiB braucht keiner, wozu spielen dann welche mit der Titan und 24GiB? Speicher kann man nie genug haben.:D

Eventuell weil die T-Rex RT beherrscht und nebenbei in 4K so ~50% schneller ist als ne VII deren 16GB da nicht weiterhelfen?
Der haben möchte Drang riesengoß war?
Jemand einfach die schnellste Grafikkarte haben wollte, weil er einfach eine Grafikhure ist (ja nicht als Beleidigung auffassen :D) und da mit Mods die 24GB sogar Sinn machen?
 
Eventuell weil die T-Rex RT beherrscht und nebenbei in 4K so ~50% schneller ist als ne VII deren 16GB da nicht weiterhelfen?
Der haben möchte Drang riesengoß war?
Jemand einfach die schnellste Grafikkarte haben wollte, weil er einfach eine Grafikhure ist (ja nicht als Beleidigung auffassen :D) und da mit Mods die 24GB sogar Sinn machen?

Genau wegen solcher Post schreibe ich hier. Die Info eine Titan RTX wäre 50% scheller ist Unsinn, sie ist sogar langsamer als eine ti und in bestimmten Pro Anwendungen unterliegt sie einer Titan XP und ist gleichauf mit einer V. Das war übrigens bei vielen GPU's im Vollausbau so, wenn ein Design massiv Power limitiert wird.

Einzig die Trainingsperformance von Tensor ist höher und sie eignet sich wegen der Ausstattung mit RT Cores halt für's Raytracing. Der Vergleich hinkt übrigens, weil die RVII als Konkurrent für die 2080/1080ti gilt/galt und da kann sie gut mit halten, bietet den höheren Speicherausbau. Eine Titan RTX ist dafür vier mal so teuer. Das sie erscheinen konnte ist übrigens Nv allein geschuldet, wenn man damals mehr "draufgepackt" hätte, hätte es AMD sicher gelassen. Aber wie ATI scheinen die gerne zu "pieksen". Das Geblubber von Huang hat weit mehr Hintergrund als viele glauben, der wusste genau was eine 7nm Karte bedeutet, wie man an den neusten spekulierten Leistungsdaten der Amperegen entnehmen kann.

Letztlich ist es jedoch völlig egal was der Speicher kostet, wenn die Karte billiger ist als Konkurrenzprodukte. Es zählt wie "useguide" geschrieben hat, doch nur was ich dafür auf den Tisch legen muss und bekomme. Um den Rest kümmert sich der Hersteller und was interessiert mich als Endanwender deren Marge?
 
Zuletzt bearbeitet von einem Moderator:
Ich habe eine GTX 1080 Ti und müsste dringend auf die 3080 Ti umsteigen. Werden die GPUs jetzt allgemein immer teurer und wie sieht es bei AMD/anderes aus. Gäbe es da wirklich ernsthafte Konkurrenz?
 
Zurück