Intel-AMD-APU: Weitere Leaks nennen Performance oberhalb von GTX1060 Max-Q

die Lederjacken Keynotes gehen los

er sagt gerade es geht auch um Gaming PCs

Edit: naja, kam nix bei rum
 
Zuletzt bearbeitet:
Ich wollte damit nur sagen das eine 4GB-GPU eben nur 4GB hat und keine 8GB. Der HBCC soll da zwar helfen aber der funktioniert nicht wie er soll.
Lies dazu die Kommentare dazu im Link von mir, das spricht Bände und die Kommentare sind von Mitte November also auch noch nicht so alt.

Das ich meine 1080 erwähnt habe ist wenn man auf videocardz dazu liest was Intel da schreibt denn da wird 4K-Gaming auch beworben und das mit so einer Krücke das eine alte 1060 Q Max schon kann?
Meine 1080 hat nur 180Watt eine Vega 64 über das Doppelte und das spricht auch Bände genauso wie der Relase von Vega und das Event mit den gefühlten Werten und die 60fps in 4K usw was dieser Koduri von sich gegeben hat und ich als alter ATI-Fan habe noch nicht erlebt das man keine Radeon kaufen kann weil es sie nicht gibt und wenn zu horrenden Preisen.

Vega ist ein Flop weil nichts eingetreten ist was Versprochen wurde und ihr verteidigt diese Krücke auch noch?






Mühe dich nicht ab :)

Aus diesen Gründen laufen AMD ja haufenweise die Kunden davon ;)

Mal sehen was passiert wenn der Minig boom einbricht , und Intel ( die Raja Koduri aus gutem Grund weggekauft haben ) selber was schnelleres und vor allem Stromsparenderes für seine iGPU entwickelt haben:devil:
 
Linus Tech Tips hatte übrigens den Hades Canyon-NUC schon in den Pfoten...
YouTube

Ich bin mal echt auf die Performance gespannt. Preis... Übel. Aber auch wenn die Kiste nur halb so schnell wie mein Rechner wäre, so macht mich die Power auf dem winzigen Raum schon irgendwie an... :D
 
Ich bin mal echt auf die Performance gespannt. Preis... Übel. Aber auch wenn die Kiste nur halb so schnell wie mein Rechner wäre, so macht mich die Power auf dem winzigen Raum schon irgendwie an... :D
Da bin ich dabei.:daumen:
Ich finde die Zusammenarbeit zwischen Intel und AMD wirklich klasse und hoffentlich sehen wir bald zusammen noch bessere Modelle.
 
Ich denke das 4gb HBM für den mobilen Bereich vollkommen ausreichend sind. Klar mehr Speicher ist immer bessser, kostet aber auch.
Und im Übrigen denke ich, dass gerade Mobile Spieler eher ein bis zwei Detailstufen runter gehen, und schon reichen auch die 4gb hbm + hbcc wunderbar aus.
Natürlich wird es trotz dieser Lösung auch weiterhin Bedarf für dedizierte grakas im Mobilbereich geben, NVIDIAs Vormachtstellung ist in diesem Segment ist aber stark gefährdet.
 
Der HBCC arbeitet sehr gut. Auch wenn die Leistungssteigerung teils ausbleibt oder nur sehr gering ausfällt, das besondere ist doch, dass auch bei einem Speicherüberlauf des VRAM die Performance auf dem gleichen Niveau bleibt und nicht abnimmt.
Als Beispiel, AC Syndicate genehmigt sich mit MSAA in 4K bis zu 9,5GB VRAM. Die grundsätzlich verfügbaren 8GB HBM einer VEGA64 reichen nicht aus.
Durch die intelligente Speichersortierung des HBCC(in Pages etc.) im RAM & VRAM kann aber mehr Grafikspeicher im Gesamten adressiert werden (bei mir auf 20GB insgesamt gesetzt), was sich in dem gewählten Beispiel AC Syndicate dann besonders in gleichmäßigeren FrameTimes und Min-FPS bemerkbar macht. Man merkt nicht mal, dass der VRAM theoretisch schon lange voll ist.
Eine GTX1080 mit Ihren 8GB würde in diesem Szenario vergleichsweise früher ins Straucheln kommen und deutliche Unregelmäßigkeiten in den Frame-Verläufen zeigen.
Ineinem neueren Beispiel (Schatten des Krieges) hat PCGH ja auch bereits gezeigt, dass eine Nvidia mit 8GB VRAM je nach Settings (12-14GB VRAM Auslastung provoziert) gar nicht mehr das Game startet. Vega mit HBCC macht das aber problemlos!

Weiteres Beispiel wäre AC Origins, wo ich mit dynamischer Auflösung auch schon mehr als 8GB VRAM Auslastung gesehen.

Schlussfolgerung -> Mit 4GB HBM Cache + HBCC kann die Radeon Vega M in der Intel APU meiner Meinung nach problemlos 6-8GB VRAM adressieren und nutzen, ohne dass der Anwender eine Leistungsminderung durch zu wenig VRAM spüren würde. Wenn nicht sogar noch mehr.

Nur weil die Funktion des HBCC also außerhalb der Vorstellungskraft vieler liegt, heißt das nicht, dass eine solche Technologie nicht funktioniert.
Gerne nehme ich Vorschläge für Spielszenarien entgegen, in denen ein Speicherüberlauf von 8GB provoziert werden kann um Sinn und Funktion des HBCC zu belegen.
 
Was soll uns diese News jetzt sagen?
Mir sagt sie das Vega ein Flop ist! Die 1060 wurde im Juli 2016 Released und jetzt kommt da AMD mit einer APU die nur minimal besser als eine 1060 ist?

Sorry aber Vega ist und bleibt ein Flop.
Bestimmt hat Intel Vega genommen da diese wohl günstig waren ;-)

Achnee... der Koduri ist ja jetzt bei Intel!

:wall: Dumm :wall:
 
Schade. Teurer Elektroschrott :[ Wieso hat sich AMD eigentlich nicht dazu entschieden, selber sowas zu produzieren? Mit Ryzen CPU?
 
Hättest du mal besser recherchiert. Die GTX 1060 FE hat eine TDP von 120 Watt, die 1070 FE ist schon bei 150 Watt.

Die Custom Designs sind teilweise bei 200 Watt. Aber das sagt nichts über den Stromverbrauch aus. Weder bei AMD noch bei Nvidia. Wenn die Karten nicht ausgelastet werden verbrauchen die deutlich weniger. Aber Nvidia hat da ganz klar noch die Nase vorn.
 
@Edelhamster
Vega reift wie guter Wein, eine Zutat davon ist HBCC.

Auch Wolfenstein 2@4k/5k mit "Uber" Textur-Streaming ist ein Bereich wo 1080 schon lange die Flügel streckt. 8GB-HBC sind dann auch gleichwertig/besser als feste 11/12GB der GP102. Davon kommt auch der Begriff "Next gen memory". Dauert aber eben, bis es zur Masse durchkommt.


Die 2/4GB+HBCC sind aber besonders im mobile-Bereich das Ass im Ärmel. Sparsam, wenig Fläche und schnell.
 
Und woher kommen die Indizien, dass AMD bei entsprechenden Einschränkungen wesentlich effizienter skaliert als die Konkurrenz und dann noch am Ende sogar effizienter ist?
Gerade gegenüber Nvidia würde ich pauschal nein schreien.

Von zig Usern die ihre Ryzen und Vega - Chips undervolten/untertakten und damit Benchmarkls machen während sie ein Strommessgerät vor dem PC stecken haben.
Über Ryzen gabs dahingehend glaube ich sogar mal nen Artikel in der Print.
 
Zuletzt bearbeitet:
Nur weil die Funktion des HBCC also außerhalb der Vorstellungskraft vieler liegt, heißt das nicht, dass eine solche Technologie nicht funktioniert.
Gerne nehme ich Vorschläge für Spielszenarien entgegen, in denen ein Speicherüberlauf von 8GB provoziert werden kann um Sinn und Funktion des HBCC zu belegen.

Danke für Deine wirklich gute Erklärung.
Soviel zum HBCC das er es ermöglicht wie du schön schreibst zum Beispiel in Schatten des Krieges das ich auch habe und wenn man in Ultra spielen möchte das Spiel sogar 16GB VRAM empfiehlt kann man mit einer Vega und HBCC das Spiel in Ultra also spielen.
OK soweit sogut nur hat dieses eigentlich nützliche Feature auch Nachteile was @DASUNDING im Test zu HBCC hier auf PCGH geschrieben hat:
Radeon RX Vega: HBCC mit bis zu 14% Leistungsvorteil auch ohne Speicheruberlauf

Eine Vega 64 kommt ja so schon nicht an eine 1080 ran bei den meisten Spielen aber wenigstens kann eine Vega dann Spiele starten die mehr VRAM benötigen aber auhch dann mit FPS-Einbußen.
Daher Vega ist und bleibt ein Flop und aus schlechtem Wein wird kein guter Wein auch wenn er noch solange reift ;-)

Eine Vega 56 hat ja auch 8GB und HBCC und was soll es da bringen zum Beispiel bei Schatten des Krieges es in Ultra auszuführen denn da reicht die Power der Vega 56 einfach nicht aus.
Das wollte ich noch schreiben um zu zeigen das HBCC kein technisches Wunder ist sondern es auch von der Leistung einer GPU abhängt und da sind die Nvidias zur Zeit uneinholbar für AMD denn das Setzen auf HBM war ein Fehler mit Release der Fury X.
Vegas gibt es nicht zu kaufen seit Release der Frontier Edition Ende Juni 2017!
 
Zuletzt bearbeitet:
Nein, Vega 10 GPUs konnte man im Ref-Design kaufen, über kurze Zeit, auch zu halbwegs vernünftigen Preisen.
AMD konnte also den harten Kern der Stammkäufer bedienen.
Die absolute Masse dagegen hat natürlich lieber Pascal gekauft, statt ständig nach Angeboten für AMD zu suchen.

Es ist auch Quatsch, dass Vega 10 sich angeblich an die Miner so gut verkauft.
Die Boardpartner von AMD hatten schon längst bestätigt, dass sie viel zu wenige Vega 10 Chips von AMD bekommen.

CB hat noch einmal einen Test zu 2 guten Custom-Designs von Vega 10 gemacht, mit diesem Fazit:

Fazit
Obwohl es das Muster der PowerColor Radeon RX Vega 56 Red Devil mit der sehr guten Nitro+ von Sapphire aufnehmen kann, startet das Fazit trotzdem ernüchternd: Denn das Duell PowerColor Radeon RX Vega 56 Red Devil gegen die Sapphire Radeon RX Vega 56 Nitro+ (Test) findet außerhalb der Redaktion aktuell nicht statt. Lieferbar ist in Deutschland derzeit keine der beiden Varianten geschweige denn überhaupt eine Radeon RX Vega 56 (oder RX Vega 64). Und es ist auch völlig unklar, wann und ob sich dies ändern wird. Wer schnellstmöglich eine Radeon RX Vega 56 oder RX Vega 64 sein Eigen nennen möchte, muss zu sehr hohen und damit in vielen Fällen zu hohen Preisen vorbestellen, alles andere hat derzeit wenig Aussicht auf Erfolg.
PowerColor Radeon RX Vega 56 Red Devil im Test - ComputerBase

CB werde ich hier aber nur noch selten verlinken, da die Seite nicht mehr neutral testet, und deren Testparcour sowohl bei den CPUs und GPUs eindeutig AMD bevorzugt. Das ist wohl ein Zugeständnis an die User dort, um mehr Klicks zu bekommen.
 
Zuletzt bearbeitet:
@Chicien:
Du führst an "8GB VRAM - wenn die voll sind packt Vega eh keine spielbaren FPS mehr".
Das Leistungsniveau beider GPU´s schätzen wir grundverschieden ein, soll jetzt aber nicht der Diskussionspunkt sein.

Ich habe dir mit AC Syndicate und auch AC Origins schon zwei Titel genannt, in denen sich ein HBCC positiv bemerkbar machen kann. Also vorliegende Speicherauslastung oberhalb von 8GB und dennoch spielbare FPS ohne Performance-Einbruch(spätestens an jedem FreeSync-Monitor!)
Schatten des Krieges (Gameworks Rotz^^ - ich habe es daher nicht gekauft) sollte hier rein zum Verständnis des Sachverhalts dienen. Eine mit 8 x MSAA provozierte VRAM-Auslastung kann der HBCC speichertechnisch noch managen, aber natürlich ballert der Chip dann nicht nicht mehr genügend Bilder raus.
Wie sieht es aber nun aus wenn einzig die Textur-Qualität der entscheidende Faktor ist? Mit einem HBCC ist man da nahezu unlimitiert - SuperDuper-Alptraumtexturen - no Limits!
Das ist ein Punkt den Radeon aus der FuryX gelernt hat! Doing Fiji right!

Schlussendlich noch -> die Intel-APU hat im Vergleich nur 4GB HBM-Cache. Kann es also sein, dass diese die Vorteile des HBC-Controllers noch deutlich schneller unter Beweis wird stellen können als eine große Vega mit 8GB Cache ?
Wir werden sehen!

Dank an vinacis_vivids für den Wolfenstein 2 Tip - ich checke später mal den Key-Preis.
 
Zuletzt bearbeitet:
Man darf nicht vergessen, dass die Vergleichshardware von Intel und NVIDIA jetzt knapp ein bzw. sogar anderthalb Jahre alt ist.

Der im Kombichip verwendete CPU-Teil ist wohl dieser hier:
https://ark.intel.com/products/124968/Intel-Core-i7-8650U-Processor-8M-Cache-up-to-4_20-GHz

Da verspricht Intel also eine TDP von 15W vs. 45W im Vergleichsduo Intel/NVIDIA. Der Vegachip schluckt also tatsächlich 85W, deutlich mehr als der alte GP106 in maxQ-Konfig mit ~60W. Bei praktisch identischer Leistung.

Mit dem gleichen Powerbudget könnte man auch eine GTX1070 maxQ einsetzen (70-80W) und hätte ca. 30% Mehrleistung.

Also was Intel/AMD da zeigen ist mitnichten revolutionär. Es krankt an der mangelnden Effizienz des AMD-Chips. Da hätte ich mir persönlich viel mehr versprochen, so wie diese Lösung vorher gehypt wurde.
 
CB werde ich hier aber nur noch selten verlinken, da die Seite nicht mehr neutral testet, und deren Testparcour sowohl bei den CPUs und GPUs eindeutig AMD bevorzugt. Das ist wohl ein Zugeständnis an die User dort, um mehr Klicks zu bekommen.

oder aber: sie nutzen die vorhande technik einfach mal auch aus? erklär mal wie du auf das schmale brett kommst. und nein, ein "das ist wohl ein zugeständnis um..." langt da nicht.

edit:
Linus Tech Tips hatte übrigens den Hades Canyon-NUC schon in den Pfoten...
YouTube
Ich bin mal echt auf die Performance gespannt. Preis... Übel. Aber auch wenn die Kiste nur halb so schnell wie mein Rechner wäre, so macht mich die Power auf dem winzigen Raum schon irgendwie an...
biggrin1.gif

das ding ist echt geil, danke für den link. kommt definitiv auf die merkliste. (:
 
Zuletzt bearbeitet:
Der im Kombichip verwendete CPU-Teil ist wohl dieser hier:
https://ark.intel.com/products/124968/Intel-Core-i7-8650U-Processor-8M-Cache-up-to-4_20-GHz

Da verspricht Intel also eine TDP von 15W vs. 45W im Vergleichsduo Intel/NVIDIA. Der Vegachip schluckt also tatsächlich 85W, deutlich mehr als der alte GP106 in maxQ-Konfig mit ~60W. Bei praktisch identischer Leistung.
Mit dem gleichen Powerbudget könnte man auch eine GTX1070 maxQ einsetzen (70-80W) und hätte ca. 30% Mehrleistung.

Also was Intel/AMD da zeigen ist mitnichten revolutionär. Es krankt an der mangelnden Effizienz des AMD-Chips. Da hätte ich mir persönlich viel mehr versprochen, so wie diese Lösung vorher gehypt wurde.

Deine Vermutung bzgl. CPU-Typ = i7-8650U ist falsch. Das wären nur 1,9GHz Base-Clock - deine gesamte Herleitung somit nichtig!

Es soll ein https://ark.intel.com/products/97462/Intel-Core-i7-7920HQ-Processor-8M-Cache-up-to-4_10-GHz sein. Damit stimmt dann auch der von Intel beworbene Base-Clock von 3,1GHz. (schreibt auch CB)
Eine etwas andere Hausnummer als dein angenommener i7-8650U ;-)

Bzgl. TDP-Betrachtung von GPU und CPU lässt du dann das neue "Intelligent Power Gating" zwischen beiden Chips völlig außer acht.

Ferner - zeig mir eine GTX10xx mit HBM?^^

Also hätte wäre wenn und aber - Radeon hatte hier einfach das passende Produkt für Intel!
Und mit aktueller Nvidia-Technik, auf Basis von GDDR(X) Speicher, gäbe es das Produkt gar nicht.
 
@Edelhamster
Vega reift wie guter Wein, eine Zutat davon ist HBCC.

Auch Wolfenstein 2@4k/5k mit "Uber" Textur-Streaming ist ein Bereich wo 1080 schon lange die Flügel streckt. 8GB-HBC sind dann auch gleichwertig/besser als feste 11/12GB der GP102. Davon kommt auch der Begriff "Next gen memory". Dauert aber eben, bis es zur Masse durchkommt.


Die 2/4GB+HBCC sind aber besonders im mobile-Bereich das Ass im Ärmel. Sparsam, wenig Fläche und schnell.


Ja, ja reift wie guter Wein die Vega, genauso wie die failkarte FURY. Macht dank HBM aus 4GB Vram 40GB Vram, lol
Die frametimes freuts:

GeForce GTX 1070 FCAT Frametime Analysis Review - Introduction

GTX1070 hat direkt mit dem ersten Treiber gezeigt wie man es richtig macht.

Die GTX1080 ist der RX64 haushoch überlegen in 95% aller Spiele und seit fast zwei jahren ERHÄLTLICH !!!! Vom stromverbrauch, lautstärke brauchen wir es gar nicht zu sprechen.

Durchschnitt
Launch-Analyse nVidia GeForce GTX 1070 Ti (Seite 2) | 3DCenter.org

GTX1080 macht alles besser als die nicht erhältliche RX64.

Laut, lahm und viel zu spät. Das ist Vega.
Project Cars 2 und 1000000x weitere Titel wie AC_U zeigen bestens das Vega nicht einmal DX11 richtig behherscht. DX11 gibt es nicht seit gestern, einfach nur FAIL die karte.

ROG Strix RX Vega 56 08G Gaming - test wydajno?ci: Project CARS 2 :: PCLab.pl

Crysis 3 (AMD Evolved)
ROG Strix RX Vega 56 08G Gaming - test wydajno?ci: Crysis 3 :: PCLab.pl

Ja, ja das böse Gameworks.
Es liegt nie an Gameworks. Es liegt an der tolen hardware die inkonstanter nicht sein kann.
Wenn AMD fanboys verzweifelt sind und AMD absucked liegt es natürlich an Gameworks, getroffene Hunde bellen immer am lautesten. Armselige AUSREDEN, nichts weiter.

Beschwert euch bitte bei AMD für die tolle DX11 performance und nicht bei NV ! Immer die schuld bei anderen suchen, traurig.


Wolfenstein 2 ? Grafisch mittelmässiges Spiel das auf einer GTX1080 ohne einen einzigen micro-ruckler läuft, wo ist da der Vorteil von VEGA ?
Vega ist nichtmal im Stande 60FPS in MAFIA 3 oder AC Syndicate zu halten.
 
Zuletzt bearbeitet:
@sunyego:

1) Dein verlinkter Test von Guru3d behandelt Frametimes zwischen Pascal und Fiji aka FuryX und nicht Vega. Falsche Generation!

2) Dass eine GTX1080 in 95% aller Spiele der RX64 überlegen ist entspricht darüber hinaus nicht der Wahrheit, siehe Neue Grafikkarten-Benchmarks fur das Jahr 2018 (Seite 2) - ComputerBase
Dein 3dcenter Link zum Leistungsindex nach GTX1070ti Release stützt deine bodenlose Behauptung ebenfalls nicht.

3) Traurig, wie verzweifelt und uninformiert die NV-FanBase die letzten Tage in diesem Forum argumentiert.
Da können viele scheinbar echt nur den längsten Balken auswerten. Technik oder Innovation - was ist das?
 
Zurück