AMD Radeon: Vega 20 und Vega 12 in Linux-Patches vermerkt

Vega ist im Notebook Segment gut, da man da eine starke Leistung hat, bei wenigerem Verbrauch (vor allem wegen dem Speichercontroller). Ich überlege sogar meine RX 580 jetzt noch zu verkaufen (gibt ja immerhon noch 360€), aber da ich einen Freesync Monitor besitze und nicht auf das Feature verzichten mag, mag ich auch nicht zu Nvidia wechseln, obwohl ich dazu wirklich geneigt wäre.
 
Das ist doch in keinster Weise vergleichbar :schief:. AMD bring wenigstens IMMER brauchbare IGP´s raus ganz im Gegensatz zu Intel bisher (Iris Pro aussen vor).
Gebe großteils recht, aber gerade die APUs von den vergangenen Generationen von Intel seit der HD 3000 sind allesamt sehr brauchbar, äußerst effizient und konnten mit AMDs Angeboten auch großteils mithalten. Natürlich ist AMDs Angebot nun deutlich stärker, das ändert aber nichts daran, dass man auch bei Intel stets potente Lösungen kaufen konnte - wenn auch für viel Geld.
Aber im Notebook sind die Lösungen immer sehr gut gewesen, für eben alles außer modernste 3D Spiele (für die wäre selbst die Iris Pro zu langsam AFAIR)
Fände ich gut, an meiner Rx480 gibt es (außer den schwachsinnigen Treibereinstellungen von Asus) bis jetzt nichts zu kritisieren. Eine 680 für ~300€ würde ich mir sofort kaufen
daumen.gif
.
Also lol ne, ich hab meine 7970 mit knapp über 350€ gekauft... vor mittlerweile bald 7 (!) und die 480 ist zwischen 30-45% schneller, das wär mir nach 7 Jahren ein doch zu kleiner Schritt nach vorne.
 
Zuletzt bearbeitet:
Irgendwo, irgendetwas hat AMD verkackt und Vega ist so mies, wie er eben ist.
Das ist für mich leider immer der springende Punkt:
Ich kenne mich zugegeben erst nach und nach mit den Internen Abläufen einer GPU aus, großteils durch deine Erklärungen. Bin hier aber immer noch ein "Noob".
Mein Problem ist also: ja, ich weiß bzw verstehe noch nicht ganz, was AMD eigentlich "verbessert" hat, ich sehe nur das für Spieler bzw Leser eines Tests offensichtliche und gleiche das mit den technischen Daten ab:
Für die Chipgröße für den Verbrauch (trotz HBM)
Für die Zeitdifferenz zur Konkurrenz
Dafür, dass man an GCN nun schon viele Jahre "verbessert"
Und dafür, dass man so viel an der Architektur "optimiert" hat im Vergleich zu Fiji, gleich viele Einheiten hat in vielerlei Hinsicht (Shader und Co.) aber sich an der "IPC" (sofern man das so nennen mag) so gut wie nichts verändert hat, verwundert es dann einfach, wie wenig man von all den schönen "Textphrasen auf den Werbetafeln" (Ich meine damit Aussagen auf den Marketingfolien) in der Realität sieht.

Denn rein von diesen von mir betrachteten Daten ist sowohl von der Performance als auch vom erhofften Preis der gewünschte Gegner wohl nie die 1080 gewesen. Erinnert mich halt von den Erwartungen her und der anschließenden Enttäuschung an die HD2900 XT

Das sollte mittlerweile deutlich besser aussehen.
Vor allem seit Skylake und Gen9 hat Intel eine technische Basislinie für ihre Software etabliert und Spiele welche nicht starten oder gravierende Grafikbugs zeigen sollten wesentlich seltener vorkommen.
Vor ein paar Monaten hat Intel auch ihre Vulkan-Treiber und vielleicht auch DX12-Treiber deutlich verbessert.
Da Intel das Thema jetzt auch ernsthafter angehen möchte, wird AMD gewiss Probleme bekommen.[/QUOTE]
 
Vega = GCN Gen 5.
Die ISA ist zu 99% die gleiche und die Compute-Units sind auch zu 95% gleich aufgebaut, seit 2012.
AMD hat bei Vega primär bei der Grafik-Pipeline umgebaut und verbessert, ansonsten ging das meiste Transistoren-Budget für den höheren Takt drauf.

Kepler war deutlich anders, als Fermi.
Neue Compute-Units, andere Instruction-Cycle-Times etc.
Die Grafik-Pipeline war aber eine Evolution von Fermi, die sich bis Heute und Volta iterativ hält.
 
Vega basiert mWn nicht auf GCN sondern ist eine komplett neue Architektur.
Leider nicht richtig, es wurde wohl vieles verbessert (wie auch schon bei Polaris (Frontend usw), aber es ist dann doch "nur" eine weiterentwickelte GCN Architektur.
So wie damals Kepler mit der Geforce 600.
Das hatten wir doch schon oft genug in anderen Threads ;)
Kepler "basiert" auf Fermi... aber natürlich mit vielen Änderungen, genauso wie Maxwell zu Kepler, Pascal zu Maxwell...

Ob man diese Änderungen dann immer als "überarbeitete Architektur" oder "komplett neue Architektur" bezeichnet überlasse ich den Experten (in dem Fall dem, weil mir außer Locuza hier grad keiner Einfällt). Jedenfalls sind die... wie soll ich sagen... Grundpfeiler von Pascal wohl schon mit Fermi gelegt worden, insofern könnte mans wohl so sehen: Fermi (F Gen 1), Kepler (F Gen 2), Maxwell (F Gen 3), Pascal (4) und nun Volta/Turing. Hab vllt was vergessen.
Jedenfalls ist mir vom Gefühl her kein so großer, kompletter Umwurf in der Nvidia-Familie mehr bekannt wie es Fermi zu seinem Vorgänger darstellt.
Also ums kurz zu machen, Kepler war wohl nicht eine "völlig neue Architektur", wohl aber eine mit vielen Verbesserungen bzw massiv anders, aber sicher nicht neu im Sinne "from Scratch" (was vermutlich ja nichtmal auf Fermi zutrifft). Vielleicht ähnlich zu Geforce FX -> Geforce 6. Aber das ist jetzt geraten, dazu fählt mir das nötige Hintergrundwissen ( Knowhow?)
Vega = GCN Gen 5.
Die ISA ist zu 99% die gleiche und die Compute-Units sind auch zu 95% gleich aufgebaut, seit 2012.
AMD hat bei Vega primär bei der Grafik-Pipeline umgebaut und verbessert, ansonsten ging das meiste Transistoren-Budget für den höheren Takt drauf.
Das ist etwas, was ich immer noch nicht ganz verstehe... warum mehr Transistoren für höheren Takt. Kannst du das zufällig nochmal ausführen wenn du Zeit hast?
Und was ist dann deiner Meinung nach schief gelaufen? Die "IPC" ist ja doch nicht großartig gestiegen im Vergleich zu Fiji, die Taktraten auch nicht besonders... der Verbrauch beim anvisierten Takt halt schon.

Übrigens, damit ich auch mal was besser weiß *KlugscheiBmodus an*: Launch war zwar wohl 9. Jän 2012, ich hab hier aber ein 2011er Produktionsmodell ;-)
Fertig gestellt war das Design damit wohl Anfang 2011

Übrigens netter Auszug aus Wikipedia, welcher ein bisschen auch zeigt, dass nicht nur Nvidia die Grafikkartenpreise hochtrieb:
Wie bereits bei der Radeon HD 7970 hob AMD den offiziellen Verkaufspreis gegenüber der Vorgängerserie an: Während der Startpreis für die Radeon HD 6950 noch bei 260 € lag, gab AMD diesen bei der Radeon HD 7950 mit 420 € an.
Kaum zu glauben, dass man mal die zweitschnellste Karte von AMD (die ja annähernd mit Nvidia konkurrieren konnte) um knapp 260€ bekommen hat


Die Grafik-Pipeline war aber eine Evolution von Fermi, die sich bis Heute und Volta iterativ hält.
Ist halt auch fraglich, ob hier noch große revolutionäre Änderungen kommen werden oder ob das schon "ausoptimiert" ist.
 
Zuletzt bearbeitet:
[...]
Kepler "basiert" auf Fermi... aber natürlich mit vielen Änderungen, genauso wie Maxwell zu Kepler, Pascal zu Maxwell...

Ob man diese Änderungen dann immer als "überarbeitete Architektur" oder "komplett neue Architektur" bezeichnet überlasse ich den Experten [...]
Die "Experten" sind da sicher auch immer etwas unterschiedlicher Meinung.
Man wird bei so ungenauen Begriffen selten auf eine klare Basis kommen.
Im Prinzip ist es immer eine überarbeitete Architektur, wo je nachdem, mal mehr, mal weniger verändert wurde, an unterschiedlichen Stellen.

Das ist etwas, was ich immer noch nicht ganz verstehe... warum mehr Transistoren für höheren Takt. Kannst du das zufällig nochmal ausführen wenn du Zeit hast?
Eben nur so wie ich es selber ungefähr im Bild habe, was natürlich nicht ganz korrekt ist.
Die erreichbare Taktfrequenz wird durch viele unterschiedliche Faktoren beschränkt, wie die Schaltgeschwindigkeit der Transistoren und der Signallaufzeit einer komplexeren Schaltung.
Konzeptionell gilt im Falle vom Letzteren ungefähr die Regel, dass je mehr Stages eine Pipeline hat, desto höher man in der Regel takten kann und das ist genau das, was AMD in dem Fall verändert hat.
Eine Pipeline ist indem Fall logisch gesehen einfach ein Fließband.
Wenn du ein sehr komplexes Fließband hast, dann braucht es eine gewisse Zeit, bis die Arbeit fertig ist und du kannst nicht den ganzen Produktionsschritt extrem schnell laufen lassen, bevor dir alles um die Ohren fliegt.
Eine Optimierung besteht darin, dass Fließband in kleinere Teilschritte zu unterteilen bzw. in Stages (Stufen), wo in der Regel ein Fließband mit vielen Stages schneller durchläuft, als eines mit weniger.
Bei den Chips musst du schauen, welcher Pfad kritisch ist und die Taktbarkeit limitiert, hier kannst du das Ganze feiner aufteilen und weitere Stages einfügen, dass kostet Transistoren, weil du zusätzliche Schaltungen implementierst und welche, die dann nach jeder Stage die Ergebnisse zwischenspeichern und weitergeben.
Am Ende ist die Signallaufzeit pro Stage kürzer und du kannst den Takt höher treiben.
stages.jpg

Rtl design optimizations and tradeoffs

Und was ist dann deiner Meinung nach schief gelaufen? Die "IPC" ist ja doch nicht großartig gestiegen im Vergleich zu Fiji, die Taktraten auch nicht besonders... der Verbrauch beim anvisierten Takt halt schon.
Keine Ahnung.
Rein vom Papier her müsste Vega deutlich mehr leisten und/oder effizienter sein.
Vega hat einen effizienteren Rasterizer, ein effizienteres Pixel-Backend (Bessere DCC, weniger L2$ Cache flushes), effizientere Vektorregister, bessere Schreib/Lesezugriffe dank InfinintyFabric im Vergleich zum alten bei Fiji und dennoch war bei Computerbase der Zugewinn im Schnitt nur bei 6%.
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase

Man könnte ein paar Vermutungen in den Nebel schießen, wieso Vega möglicherweise nicht so effizient ist oder die Leistung teilweise nicht so gut ausfällt.
Vielleicht konsumiert das neue Fabric mehr Strom, als das Alte, vielleicht kosten bei Vega einige Grafikoperationen mehr Energie bzw. sogar auch Leistung, da Vega ein paar vorher separate States kombiniert
Die längere Pipeline bezüglich der Taktbarkeit kostet AMD vermutlich auch Effizienz.

Aber selbst wenn man sich nur Mining anschaut, wo nur Compute-Kernel durchlaufen und man Vega beim Takt drosselt, sieht die Effizienz nicht besser als bei Polaris aus, wo kombinierte Grafik-States z.B. keine Rolle spielen.

Vega10 leistet teilweise starke Ergebnisse, in BF1 und Titanfall 2 liegt Vega 25% bzw. 24% vor Fiji bei gleichem Takt:
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase

Dafür muss man auch eine logische Erklärung finden und wieso das eher die Ausnahme, als die Regel darstellt.

Übrigens, damit ich auch mal was besser weiß *KlugscheiBmodus an*: Launch war zwar wohl 9. Jän 2012, ich hab hier aber ein 2011er Produktionsmodell ;-)
Fertig gestellt war das Design damit wohl Anfang 2011
Ich weiß noch, dass Redaktionen die spaßige Aufgabe hatten kurz vor Weihnachten Tahiti durch die Benchmarks 2011 laufen zu lassen, aber ich zähle GCN zum Jahr 2012, weil Kundenzugang und echte Marktverfügbarkeit erst ab da die Realität dargestellt haben.
Das die Dinge intern natürlich schon früher produziert worden sind, ist natürlich klar, aber ich rechne persönlich erst mit der Verfügbarkeit eines Produktes im Markt.
 
denkst du Vega wäre besser wenn es schnelleren Speicher hätte? (z.B die Aquabolt Chips)

die effektive Speicherbandbreite ist im Vergleich zu den Pascal ja ziemlich mieß
 
Wieso? Auch beim Ryzen 5 2400G kann man später eine schnellere GPU hinzustecken und der CPU-Teil des Ryzens hat wenigstens Reserven (4Cores/8Threads) im Vergleich zu der Alternativ-Kombi Pentium G (2Cores/4Threads)

Reserven für was? Für Online Spiele mit Mager IGP?
Jetzt mal Butter bei dir Fische. Für was genau, soll eigentlich Raven Ridge gedacht sein? Zum Sterben zu viel zum Leben zu wenig?
Wenn man von einer Pentium und GPU Lösung klar in dem angedachten Bereich geschlagen wird, hat man für meine Begriffe wieder das Ziel verfehlt, wie bei allen anderen APU Lösungen zuvor auch schon.

Das Argument mit der toten Plattform ist auch recht witzig. Was interessiert das bitte, wenn die Skylake Prozessoren doch deutllich schneller sind als ein 2400G? Oder zählt ein Gebrauchtkauf nicht als Aufrüstung?

Tote Plattform... und das bei so einem Budgetkauf wo man jeden Cent umdrehen muss.
Da wird man jetzt nicht plötzlich auf eine HIgh End CPU wechseln wollen.

Bauchschmerzen bekomme ich auch immer, wenn ich dann deine Version von Realitätsverdrehung lese und zwar alle Monate der gleiche Unsinn

Tut mir leid, wenn ich es mir erlaube dir zu widersprechen.

Als ob Vegas Architekturfortschritte alle sinnlos wären

Das ist nicht das was ich behauptet habe, ich sagte im großen und Ganzen sinnlos, da keine Performance dadurch gewonnen wird.
Das dürfte aber jedem aufgefallen sein, das das so ist, das muss man eigentlich nicht mehr drüber diskutieren.
Hätte AMD mal die Extrawürste bei Vega beiseite gelassen, würden sie heute viel besser dastehen.

besonders RavenRidge würde mit Polaris ein gutes Stück schlechter abschneiden.

Und das sagt dir genau wer? Halte ich für reine Spekulation.
Ich denke dass bei Raven Ridge ein großer Anteil an der CPU hängt, was die Mehrleistung der integrierten GPU angeht.
Die alte IGP wird fast durchgängig von der ultralangsamen CPU gebottleneckt.

Die ganzen neuen Rendering-Features die nachgerüstet worden sind, sind sicher auch nicht sinnfrei.

Wenn es am Ende nicht in mehr Leistung umgesetzt wird und das zeitnah, dann ist es für mich nahe an der Sinnlosigkeit und das gilt so ziemlich für alle Verbesserungen, ach nennen wir es Verschlimmbesserungen von Vega.

Bei Polaris vs. Hawaii interessiert dich auch nie das Polaris ein deutlich besseres Geometrie-Frontend besitzt und die Leistung pro Core ein wenig gestiegen ist.

Und was hat des letztlich unterm Strich gebracht? Frag dich das mal.
Kleine Verbesserungen, aber auch Verschlechterungen durch Kastrationen und mangelnder Bandbreite, die Polaris ordentlich einbremst.
Aber klar, so ein Polaris mit 200 Watt Verbrauch ist natürlich ganz doll und enorm besser als Hawai in 28nm.
Du unterschätzt wie gut Hawai war und immernoch wäre.
Ich sehe seit Hawai unterm Strich keine Verbesserungen mehr bei AMD, außer das was der Shrink ohnehin an Effizienzssteigerung mit sich bringt.

Schaffes Weisheiten

Ich orientiere mich lieber daran was hinten bei rumkommt und das ist dünner als dünn.
So ist leider die Realität.
Man kann schöne Sprüche klopfen, undervolten, die Vega-Features preisen, am Ende bringt es einem sogut wie gar nichts.
Wenn wenigstens der HBCC funktionieren würde, aber das ist ja auch ein Trauerspiel.
Wieder in der aktuellen PCGH zu lesen. Selbst wenn 10,5GB benötigt werden, bringt der HBCC in der aktuellen PCGH wiedermal nix, so wie er noch nie spürbar i-was gebracht hat.

Bei Vega kann man ganz Easy nachschauen was der Chip an und für sich mit niedrigerer Leistungsaufnahme schaffen würde.

Als ob das unterm Strich den Markt in irgendeiner Weise juckt oder den Absatz von AMD verbessert.
Dann muss AMD eben einen Chip liefern, der von Werk aus an der Grenze der Stabilität läuft, nur offenbar machen sie das aus guten Gründen nicht.

Mit Chill kann man die GPU auf niedrigere Taktraten zwingen, bei einer Chippower von rund 140Watt(etwa 180Watt TDP) leistet dabei Vega immer noch deutlich mehr als ein Polarischip.

Schonmal geschaut wie groß der Vegachip ist?
 
Zuletzt bearbeitet:
denkst du Vega wäre besser wenn es schnelleren Speicher hätte? (z.B die Aquabolt Chips)

die effektive Speicherbandbreite ist im Vergleich zu den Pascal ja ziemlich mieß

Speichertuning bringt auf jeden Fall mehr als Chiptakt in den meisten Games.
@Schaffe: Das genannte Beispiel soll ja lediglich etwas illustrieren. An Vega 11 sieht man ganz gut was der Chip bringen kann wenn er gekappt wird und mit anständigem Takt läuft. Ich vermute sogar das Vega sich in der Leistungsklasse einer 580er deutlich besser schlägt.

@Locuza: Fakt ist aber auch dass das mehr an Shadern einer 64er bei gleichem Takt kaum Vorteile bringt. Auch lässt sich eine 64er nicht unbedingt besser Übertakten am Chiptakt. Ich vermute eher dass die ganzen Shadereinheiten der Primitv Shader Funktion angedacht waren.
 
Wenn man den Links zu semiaccurate folgt fällt auf, dass die News keinerlei Information erhält außer dem Satz: "Note: The following is for professional and student level subscribers". Satte 1000$ soll der Zugang kosten... was haben die geraucht?

Damit kann ich den Inhalt nicht nachprüfen und er ist für mich wertlos.
 
Tut mir leid, wenn ich es mir erlaube dir zu widersprechen.
Du widersprichst mir nicht, du widersprichst mit deinen absoluten Formulierungen grundsätzlich Fakten.
Etwas "optimiert" beim Ausdruck und deiner Kritik und vielen Beiträgen würde ich und vermutlich andere in vielen Punkten zustimmen, aber wenn wieder einmal ein Absoluthammer kommt, dann wirst du eben angefahren.

Das ist nicht das was ich behauptet habe, ich sagte im großen und Ganzen sinnlos, da keine Performance dadurch gewonnen wird.
Das dürfte aber jedem aufgefallen sein, das das so ist, das muss man eigentlich nicht mehr drüber diskutieren.
Das war deine Behauptung:
"Ich sehe da Polaris deutlich effizienter. Vega ist einfach eine Katastrophe und kann nichts besser als Polaris (außer Features mit an Board zu haben die im großen und ganzen absolut sinnfrei sind) und Polaris konnte schon nichts besser als Hawai. Und nun lässt man Hawai von den Treibern her verhungern, Hawai wird immer langsamer und fällt immer weiterhinter Polaris zurück und das obwohl Hawai von der Rohleistung locker mithalten kann."

Du sagst pauschal, dass Vega nichts besser kann als Polaris und die Features absolut sinnfrei sind und dann auch noch das Polaris nichts besser konnte als Hawaii.
Das stimmt eben nicht, da es viele Feinheiten gibt und du kehrst alles pauschal unter einem Teppich.

Hätte AMD mal die Extrawürste bei Vega beiseite gelassen, würden sie heute viel besser dastehen.
Definiere all die Extrawürste?
Spekulativ würde ich den höheren Taktbereich schon dazurechnen, weil der sich bei Vega in der Praxis wenig zeigen kann, dass hätte AMD sich teilweise wohl sparen können, aber der Rest hat schon seinen Stellenwert und wenn du alles streichst und dich nur auf die Performance konzentrieren möchtest, dann bist du auch mittel- bis langfristig in einer ungünstigen Position.
Irgendwann musst du Grundlagen und neue Features etablieren.
Gerade in Bezug auf DX12 war AMD der letzte, welcher FL12_1 implementiert hat und es gibt auch schon Spiele, welche immerhin von den Rendering-Features Gebrauch machen, leider eben noch Nvidia exklusiv.

Und das sagt dir genau wer? Halte ich für reine Spekulation.
Ich denke dass bei Raven Ridge ein großer Anteil an der CPU hängt, was die Mehrleistung der integrierten GPU angeht.
Die alte IGP wird fast durchgängig von der ultralangsamen CPU gebottleneckt.
Das sagt mir die Logik, anhand der Testresultate die AMD in ihrem White-Paper und der Hot Chips Präsentation aufzeigt:
Screenshot-2018-4-5 M E GBGH - HC29 21 120-Radeon-Vega10-Mantor-AMD-f1 pdf.png


https://www.hotchips.org/wp-content...b/HC29.21.120-Radeon-Vega10-Mantor-AMD-f1.pdf

Das gilt für die Vega FE mit 484 GB/s und 13,7 TFLOPs als theoretisches Maximum.
Das sind 35,3 GB/s pro TFLOP, wobei in der Praxis eine FE und RX64 eher bei 1400-1500 Mhz anliegt das sind 39,6-42 GB/s pro TFLOP.
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 3) - ComputerBase
RavenRidge darf sich offiziell zusammen mit der CPU 47 GB/s mit Sinlge-Rank DDR4 teilen, bei theoretisch 1,76 TFLOPs wären das nur auf die GPU bezogen 26 GB/s pro TFLOP.
Taktraten der RavenRidge GPU in der Praxis habe ich nicht gefunden, aber es ist wahrscheinlich das diese nicht niedriger am Maximum liegen, als bei den großen Vegas und wenn du sogar nur 5-10GB/s für die CPU abziehst, dann landest du fast bei der Hälfte der Bandbreite pro TFLOP im Vergleich zu den Desktop-Karten.
Und was glaubst du passiert mit den Zahlen da oben in Bezug auf RavenRidge? Die fallen besser aus, weil RavenRidge viel mehr an der Bandbreite hungert.

Und was hat des letztlich unterm Strich gebracht? Frag dich das mal.
Kleine Verbesserungen, aber auch Verschlechterungen durch Kastrationen und mangelnder Bandbreite, die Polaris ordentlich einbremst.
Aber klar, so ein Polaris mit 200 Watt Verbrauch ist natürlich ganz doll und enorm besser als Hawai in 28nm.
Du unterschätzt wie gut Hawai war und immernoch wäre.
Ich sehe seit Hawai unterm Strich keine Verbesserungen mehr bei AMD, außer das was der Shrink ohnehin an Effizienzssteigerung mit sich bringt.
Es hat unterm Strich eine GPU hervorgebracht, welche ungefähr das gleiche leistet, durch unterschiedliche Stärken und Schwächen, insgesamt aber günstiger produziert werden kann.
Der unterschiedliche Kompromissmix sagt dir nicht zu, meinetwegen, aber das Polaris nichts besser kann ist damit nur pauschale Polemik.
Und es geht ja auch gleich weiter, indem du einfach vermutest das jegliche Effizienzsteigerung sowieso vom shrink kommt und damit die Architektur nichts geleistet hat.

Wenn wenigstens der HBCC funktionieren würde, aber das ist ja auch ein Trauerspiel.
Wieder in der aktuellen PCGH zu lesen. Selbst wenn 10,5GB benötigt werden, bringt der HBCC in der aktuellen PCGH wiedermal nix, so wie er noch nie spürbar i-was gebracht hat.
"Sowie er noch nie spürbar i-was gebracht hat."
Sowie z.B. hier nicht:
AMDs HBCC-Feature kann (in der richtigen Situation) bis zu 70% Mehrperformance bringen | 3DCenter.org

Oder 24% bessere Frametimes und 10% mehr FPS unter Anno 2205 oder 13% bessere FPS und Frametimes unter COD.
Dishonored II und Deus Ex auch mit 20% Frametime-Verbesserungen.
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase
Das fällt bei einigen Spielen definitiv in den Bereich von spürbar.

Lässt du die Pauschalaussage mit "hat nie etwas spürbar gebracht" weg, dann kann man dem Ganzen ja in vielen Punkten zustimmen.
Es ist ein Trauerspiel, wenn das Feature im Schnitt keinen Performanceboost bietet und man als Nutzer praktisch keine Ahnung hat, wann der HBCC einem helfen könnte und wann er sogar schadet, weil das hängt stark vom Spiel ab, der RAM-Menge die man zuweist usw.
Als Enthusiast und erfahrener Nutzer, welcher sich auch Berichte durchliest, kann man da einen Mehrwert schon extrahieren, aber wirklich schnigge ist das so sicherlich nicht.
 
Das ist etwas, was ich immer noch nicht ganz verstehe... warum mehr Transistoren für höheren Takt. Kannst du das zufällig nochmal ausführen wenn du Zeit hast?
Vielleicht kann ich das etwas einfacher erklären als Locuza, zumindest versuche ich es mal :D

Jede Operation auf einem Chip benötigt Zeit, sei es die Addition, das Dekodieren der Befehle usw.
Dabei wartet die nachfolgende Einheit auf die Daten der Vorherigen um diese dann weiter zu verarbeiten. Das Problem entsteht nun, wenn du mehrere dieser Operationen in einem Takt abarbeiten willst (z.B. Multiplikation und Addition MADD). Braucht die Multiplikation 5ns und die Addition 5ns, musst du der kompletten MADD-Operation (mindestens) 10ns geben um ein valides Ergebnis zu bekommen, damit wäre die effektive Taktung 100MHz. Packst du ein Register zwischen Addition und Multiplikation, wird der Wert zwischengespeichert und jede Einheit kann mit dem für sich maximalen Takt von 5ns/200MHz arbeiten. Nur kosten diese Register Platz, weil das FlipFlops sind. Diese haben dann natürlich auch nochmal Laufzeiten, die dann aber wieder in die Gleichung mit rein wandern, also wäre der effektive Takt wohl eher 150MHz im Beispiel.

Kannst dich ja mal in FPGAs / VHDL einlesen, arbeite da seit einem Jahr in der Branche :D
 
Vega28&32@1,677Ghz -> 6-6,8Tflops
Das entspricht die Reichweite (max. 1,5Ghz/6,9Tflops) von P10&20
Ein HBM² 4GB stack geht bis 256GB/s
Hier muss HBCC dann die Vorteile ausspielen, um die 6GB der GTX1060 ausgleichen zu können.

Vega22 mit 24/28CUs ist ja schon fertig (mobile). Vega12 könnte schon das Desktop-Pendant sein.
 
Das ist doch in keinster Weise vergleichbar :schief:. AMD bring wenigstens IMMER brauchbare IGP´s raus ganz im Gegensatz zu Intel bisher (Iris Pro aussen vor).

Mir ist dazu nun eingefallen: was ist nu Brauchbar? Bzw für wen. Spiele? Ok da gabs aber vor Raven Ridge von beiden nicht unbedignt nur Sonnenschein. Intels iGPUs funktionieren für 95% des Bedarfs, nur halt für manche Spiele sind sie zu schwach.
Ich hatte mit meinen AMD APUs schon so oft Pech und Probleme, da ist mir dann doch der zuverlässige Intel Treiber und die angeblich so unbrauchbare Intel iGPU zum Arbeiten lieber.

@Locuza: vielen Dank für die Ausführliche Antwort zum Thema warum Transistoren zu Vega hinzukamen (weiß nicht ob dieser Thread oder ein anderer) um ihn höher Taktbar zu machen.
Dachte, dass diese erwähnten Schritte nicht MILLIARDEN von Transistoren fressen, hab mich wohl geirrt und danke für die Aufklärung.
 
Zurück