AMD Vega: Benchmark-Eintrag nennt 1.600 MHz GPU-Takt und 16 GiByte HBM2

5. Juni hardlauch, 16GB HMB2, 1600MHz+, 599$...
Ich will ja kein Spaßbremser sein aber die Erwartungen gehen langsam durch die Decke habe ich das Gefühl.
Auch wenn die Karte Top sein wird, führt das nur zu Enttäuschungen.
 
...aber die Erwartungen gehen langsam durch die Decke habe ich das Gefühl.

Daran habe ich mich bei AMD-GPU Pre-Launches schon gewöhnt. War die letzten Male nicht anders, dass unrealitische Daten/Zahlen kolportiert wurden. Sorgt immer für garantierte (Pseudo)Ernüchterung.
 
5. Juni hardlauch, 16GB HMB2, 1600MHz+, 599$...
Ich will ja kein Spaßbremser sein aber die Erwartungen gehen langsam durch die Decke habe ich das Gefühl.
Auch wenn die Karte Top sein wird, führt das nur zu Enttäuschungen.

Kann ich mir auch nicht vorstellen. Bei der Verfügbarkeit von HBM2 Speicher wird man kaum Karten mit 16 GB bestücken und dann für 600$ quasi verschenken.
Falls doch wäre so ein Stück Hardware aber wirklich Hardcore-Grafikkarten-P0rn zum Kampfpreis. :ugly:
 
gings bei derBezeichnung 6964:00 nich vor kurzen um ein Duale Vega mit Waserkühlung

könnte die 16 GB auch erklären
 
Aber die 1600MHz wären schon etwas heftig für Dual-GPU, daher eher doch Single-GPU mMn.
 
In den nächsten Wochen sollten langsam mehr Informationen zu Vega kommen aber an eine "Straßenversion" mit 16 GB glaub ich ehrlich gesagt noch nicht, auch die 1,6 GHz kommen mir doch etwas zu hoch vor um noch im Sweetspot zu laufen. Hier scheint GV100 doch schon einzuwirken. Vermutlich hatte AMD noch nicht mit einer solch frühen Ankündigung gerechnet (vor allem noch vor den Vegas). Davor wäre die MI25 die stärkste Karte am Markt gewesen, jetzt wäre sie "nur" noch die stärkste Karte für einen klassischen GPU-Slot...
 
Wäre es eigentlich theoretisch möglich das 8gb hbm2 und 8gb gddr5(x)?

Wäre bestimmt irgendwie möglich, aber ziemlich sinnlos. Für den HBM-Teil bräuchte man den teuren Interposer, die GDDR5X Chips würden viel Platz und auch Strom brauchen. Die Vorteile von HBM (Geringer Platzbedarf & Verbrauch) wären zunichte gemacht, während man mit den Nachteilen von GDDR5X (Verbrauch, Platzbedarf) leben muss. Letzten Endes hätte man dann ein sehr teures Produkt (Aufwenigerer Chip, HBM, aufwändiges PCB etc), das möglicherweise Spiele ruckeln lässt wie Sau weil Texturen aus Unterschiedlichen Teilen des VRAM geladen werden
 
Was spricht für AMD dagegen eine VEGA 10 Version mit 8 GB und eine VEGA 10 Version mit 16 GB zu bringen?

Machen sie halt die 16 GB Version 100€ teurer. Einzig allein die geringe Stückzahl von HBM2 kann etwas nerven.
Theoretisch nichts, aber praktisch könnte AMD für Konsumenten nur 8GB verkaufen, um sich nicht selber Konkurrenz mit günstigen Radeons zu machen, gegenüber Radeon Pro und Instinct-Modellen.

Lieber mal abwarten, was wirklich kommt und dann auch noch wie es performt ;)
Vega10 besitzt nur ein HBM2-Interface, es gibt keine Alternative für die GPU.

Wäre es eigentlich theoretisch möglich das 8gb hbm2 und 8gb gddr5(x)? Kennt sicher da irgendwer aus? Kann der high bandwidth cache Controller mit beidem umgehen? Wäre ja quasi geforce 970 3,5+0,5 nur dass es 8+8 wäre
Theoretisch vielleicht, aber praktisch nicht, da so eine Konstruktion relativ unsinnig ausfällt, noch komplexer und kostenintensiver wäre.

Wer soll denn bitte eine Gamerkarte mit 16GB HBM2 bezahlen können/wollen :wow: ?? So nen Teil kostet sicher nicht unter 1400€ :ugly:.
Die Nvidia-Käufer? SCNR!
 
naja, es steht da "max_clock"

die nano war auch max 1000 MHz ... lief aber meistens mit 700MHz-800MHz

Ach komm, CB erreicht (im geschlossenen Gehäuse) 875MHz im Schnitt, PCGH erreicht 900-950MHz@1080p/1440p und erst bei UHD unter 900MHz.

Aber theoretisch könnte AMD ein 500Watt Monster ala R9 295X mit (nominell) vollen Taktraten bringen...
 
Wäre bestimmt irgendwie möglich, aber ziemlich sinnlos. Für den HBM-Teil bräuchte man den teuren Interposer, die GDDR5X Chips würden viel Platz und auch Strom brauchen. Die Vorteile von HBM (Geringer Platzbedarf & Verbrauch) wären zunichte gemacht, während man mit den Nachteilen von GDDR5X (Verbrauch, Platzbedarf) leben muss. Letzten Endes hätte man dann ein sehr teures Produkt (Aufwenigerer Chip, HBM, aufwändiges PCB etc), das möglicherweise Spiele ruckeln lässt wie Sau weil Texturen aus Unterschiedlichen Teilen des VRAM geladen werden

Es hat auch etwas größere PCB zu verwenden, da man die Hitzequellen etwas ausgespart voneinander setzen kann.
Wie warm HBM2 Speicher ist weiß ich nicht.

Bei dem Stromverbrauch traue ich AMD sogar sparsamere Karten zu. Evt. gilt es 350 NVIDIA- Watt zu toppen :D
 
Wir reden hier von AMD, nicht von Nvidia ;) *duckundweg*


@T

Wenn diese Graka nicht für den Professionellen Markt kommt, werden 16GB der neue Standard für die nächsten Jahre, oder kommen dann nächstes Jahr 32GB? :ugly:

Da dank Konsolen bei Graka-Engines keine Quantensprünge zu erwarten sind, wären 8GB bis 2020 genug Standard. 4k kommt im Schneckentempo und die Grakas von heute haben einfach nicht genug Power, um diese mit UHD-Texturen/Auflösungen zu füttern.
 
Zurück