DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Der Leistungsgewinn wird wohl in etwa so hoch sein wie bei Mantle und hier hat man ja bei den Minfps in BF4 Multiplayerszenen Steigerungen von teweilweise ~100% gesehen. Das kann also schon einiges bringen - 20% werdens wohl eher im GPU-Limit sein.

Man kann nicht einfach pauschal sagen, dass DX12 20% mehr Leistung bringt. Im Endeffekt ist es so: läuft die Grafikkarte am Limit bspw. bei UHD und vollen Details, die CPU hätte aber noch Luft, wirst quasi keinen Unterschied zwischen DX11 & DX12 sehen. Andersherum, wenn die CPU unter DX11 am Limit läuft und die GPU noch kann, dann wird DX12 schneller sein. Wie viel schneller, hängt allein davon ab wie viel Luft die GPU hat und wie viel Luft bei der CPU rausgeholt wird.
Da sind durchaus auch mal 100% Mehrleistung bei bswp. Low-End Grafikkarten und iGPU drin. Woher ich das weiß? Das haben die vergangenen Mantle-Benches gezeigt. GPU am Limit, nützt die Mantle leider nichts.

Dabei beziehe ich mich ausschließlich auf die Optimierungen zum CPU Overhead, nicht zu eventuellen anderen Features von DX12 die generell mehr Effekte/Bessere Leistung zulassen könnten.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Kein Spiel wird in naher Zukunft 32GB Ram benötigen, 8 Core CPU oder SLI TitanX....
Seit wann interessiert im Gaming die nahe Zukunft ?

Wollen wir mal Feststellen, das wenn wir heute schon 32GiB GSpeicher hätten, das die schon längst nicht mehr langen würden. ;) Ich würde den Herstellern die Füße küssen, wenn die jetzt schon zu Verfügung stehen würden. Ist ja nicht nur das der Speicher für Texturen, Polygonen und Partikel gebraucht wird. Vor Caching und so weiter würde wesentlich einfacher werden. Was meint ihr was so eine Szene in dem Film Avatar verbrät? 32GiB sind da gar nichts! Und das wollen wir doch alle in Spielen sehen. Wären die Konsolen XBox360 und PS3 nicht gewesen, hätten wird heute schon GSpeicher min. 8-16GiB und wir hätten nicht dieses PC-Mittelalter mit Hexenverbrennung und Co. gehabt. Wir würden schon 8Kerne nutzten und hätten jetzt schon SSD mit min. 1TiB Fassungsvermögen die bezahlbar wären. Die Konsolen haben und werden uns noch viel Zeit kosten.

Ergänzung: Und bitte hört auf von Mehrleistung zu reden. Die Leistung ist schon vorhanden!!! Bitte versteht doch das es um Effizienz geht. Es geht um das Ausreizten der "VORHANDENEN" Leistung!!! Und Die wird schwer sein in irgend welche Zahlen zu pressen. Aber wenn denn könnt ihr schon von min. 50%- 200% ausgehen.
 
Zuletzt bearbeitet:
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Selbst im GPU Limit sah man bei Mantlebenchmarks schon öfters Zugewinne von über 10%.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Ich würde den Herstellern die Füße küssen, wenn die jetzt schon zu Verfügung stehen würden. Ist ja nicht nur das der Speicher für Texturen, Polygonen und Partikel gebraucht wird. Vor Caching und so weiter würde wesentlich einfacher werden.
...
Was meint ihr was so eine Szene in dem Film Avatar verbrät? 32GiB sind da gar nichts!

Und das wollen wir doch alle in Spielen sehen. Wären die Konsolen XBox360 und PS3 nicht gewesen, hätten wird heute schon GSpeicher min. 8-16GiB und wir hätten nicht dieses PC-Mittelalter mit Hexenverbrennung und Co. gehabt. Wir würden schon 8Kerne nutzten und hätten jetzt schon SSD mit min. 1TiB Fassungsvermögen die bezahlbar wären.
...
Ergänzung: Und bitte hört auf von Mehrleistung zu reden. Die Leistung ist schon vorhanden!!! Bitte versteht doch das es um Effizienz geht. Es geht um das Ausreizten der "VORHANDENEN" Leistung!!! Und Die wird schwer sein in irgend welche Zahlen zu pressen. Aber wenn denn könnt ihr schon von min. 50%- 200% ausgehen.
Ich hab ja schon viel Unsinn gelesen, aber das zeugt vom absoluten Unverständnis der technischen Entwicklung und der Zusammenhänge im PC.

Das mit der Effizienz würde ich auch nochmal genau nachlesen.

Über dem Grammatik rege ich mir später auf (ich bin kein Berliner).
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Ich hab ja schon viel Unsinn gelesen, aber das zeugt vom absoluten Unverständnis der technischen Entwicklung und der Zusammenhänge im PC.

Das mit der Effizienz würde ich auch nochmal genau nachlesen.

Über dem Grammatik rege ich mir später auf (ich bin kein Berliner).

Wäre auch schön wenn dann auch Argumente kommen würden. :)

Hau mal raus!

Und ja ich bin Legastheniker. Entschuldige das ich lebe. Wenn Du mich schon runter machen willst dann bitte richtig. ;)
 
Zuletzt bearbeitet:
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Wollen wir mal Feststellen, das wenn wir heute schon 32GiB GSpeicher hätten, das die schon längst nicht mehr langen würden. ;) Ich würde den Herstellern die Füße küssen, wenn die jetzt schon zu Verfügung stehen würden. Ist ja nicht nur das der Speicher für Texturen, Polygonen und Partikel gebraucht wird. Vor Caching und so weiter würde wesentlich einfacher werden. Was meint ihr was so eine Szene in dem Film Avatar verbrät? 32GiB sind da gar nichts! Und das wollen wir doch alle in Spielen sehen. Wären die Konsolen XBox360 und PS3 nicht gewesen, hätten wird heute schon GSpeicher min. 8-16GiB und wir hätten nicht dieses PC-Mittelalter mit Hexenverbrennung und Co. gehabt. Wir würden schon 8Kerne nutzten und hätten jetzt schon SSD mit min. 1TiB Fassungsvermögen die bezahlbar wären. Die Konsolen haben und werden uns noch viel Zeit kosten.

Ergänzung: Und bitte hört auf von Mehrleistung zu reden. Die Leistung ist schon vorhanden!!! Bitte versteht doch das es um Effizienz geht. Es geht um das Ausreizten der "VORHANDENEN" Leistung!!! Und Die wird schwer sein in irgend welche Zahlen zu pressen. Aber wenn denn könnt ihr schon von min. 50%- 200% ausgehen.

Einfach nein. Selbst im Workstation/HPC Markt gibt es keine GPU mit mehr als 16Gb VRAM, und dort schert man sich weder um Preise noch um Konsolen. Im Gegensatz zum PC nutzen Konsolenspiele mehr als vier Kerne aus, einfach aus der Not heraus dass dort nicht so viel Single Thread Leistung zur Verfügung steht. SSDs bringen fürs Spielen keine relevanten Vorteile (außer kürzeren Ladezeiten) und haben generell nichts mit den Konsolen zu tun. Dass die immernoch so teuer sind liegt halt daran, dass die Technik noch relativ neu ist und die Fertigung aufwändiger ist. Die Gründe für die nicht genutzte PC-Leistung sind die hohe Hardwarevielfalt, die ineffizienten APIs und die schlampigen PC-Ports. Die Konsolen sind also zum Teil verantwortlich für den Zustand der Software, können aber nichts für das langsamere Voranschreiten der Hardware.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Um den Zahlen mal etwas Kontext zu geben:
500k Drawcalls bei FullHD(ca. 2Mpixel) wären ein Drawcall pro 4 Pixel. Es müsste also alle vier Pixel ein neues Objekt sichtbar sein. Realistisch? Ich denke nicht.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Der Bench hier zeigt simpel, dass die anderen APIs deutlich mehr Durchsatz schaffen, als DX11.
Vergleichbare Ergebnisse über mehrere GPUs werden hier aber nicht ausgespuckt, genau so wenig Erkenntnisse für den praktischen Gebrauch.
Nur um mal die Relation gerade zu biegen, hier werden bei einer 290X über 15 Millionen Draw-Calls pro Sekunde gesendet und der Benchmark stoppt bei unter 30 FPS wenn ich das richtig verstanden habe?
Das wären über 500K Draws per Frame, BF4 braucht weniger als 10K.
Und trotzdem ist BF4 ein sehr schönes Beispiel um die Überlegenheit einer moderneren API, wie Mantle, zeigen zu können. Bei richtig alten CPUs rennt das unter Mantle immernoch doppelt so schnell wie mit Nvidias Wundertreiber unter DX11.

Ich meine worüber reden wir hier eigentlich? Performancezuwächse von 500% als neuer Maßstab? Stimmt, das ist Blödsinn. Aber zu wissen, dass Entwickler, wenn sie ihre Threads vernünftig aufteilen, die vorhandene Hardware massiv besser nutzen können (nämlich so wie bei den Konsolen) und nicht von der Schnittstelle limitiert werden, egal wie intelligent sie programmieren, reicht aus um DX12 in den Himmel zu loben.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Einfach nein. Selbst im Workstation/HPC Markt gibt es keine GPU mit mehr als 16Gb VRAM, und dort schert man sich weder um Preise noch um Konsolen. Im Gegensatz zum PC nutzen Konsolenspiele mehr als vier Kerne aus, einfach aus der Not heraus dass dort nicht so viel Single Thread Leistung zur Verfügung steht. SSDs bringen fürs Spielen keine relevanten Vorteile (außer kürzeren Ladezeiten) und haben generell nichts mit den Konsolen zu tun. Dass die immernoch so teuer sind liegt halt daran, dass die Technik noch relativ neu ist und die Fertigung aufwändiger ist. Die Gründe für die nicht genutzte PC-Leistung sind die hohe Hardwarevielfalt, die ineffizienten APIs und die schlampigen PC-Ports. Die Konsolen sind also zum Teil verantwortlich für den Zustand der Software, können aber nichts für das langsamere Voranschreiten der Hardware.

Nun es ging nicht darum was da ist, sondern: "was wäre wenn".

Technisch ist das seit Jahren kein Problem mehr. Und wenn genügend Chips vorhanden wären, würde auch der Preis fallen. Nur sind nicht genug da. Es fehlen die Kapazitäten! Es geht noch nicht mal um die Größe der Chips oder deren Fertigungsprozess.

Wie zu Not? Man die Kerne wurden doch genau dafür eingebaut. :schief:

Klar sind die Konsolen für das stagnieren der PC-Hardware verantwortlich!

1. Weil sie Ressourcen gebunden/binden(Produktion), die so nicht in den PC-Bereich fließen konnten!
2. Weil sie nicht in der Lage sind mit der Technik zu wachsen. Somit wird auch die Entwicklung aus gebremst. Lebenserwartung einer Konsolengeneration von 5-10 Jahre.
3. Weil die Publisher(wie von Dir schon beschrieben kein Geld ausgeben wollen) es verhindern.
4. durch die 3 oben genannten Punkte wird auch weniger in bestimmten Bereichen an Geld investiert.

Je höher die Menge an Daten um so wichtiger ist die Anbindung und Grösse des Massenspeicher(besonders wenn es um Streaming geht). Hier ist wieder das Angebot und Nachfrage System zu beachten.
Was meist Du warum die Hersteller Samsung, OCZ usw. immer wieder mit irgendwelchen Notlösungen um die Ecke kommen. Die wissen ganz genau was auf sie zukommen wird. Und es wird wie bescheuert in diesen Bereich auch investiere.

Das selbe ist auch beim flüchtigen Speicher zu beobachten. AMD beweist jeden Tag aufs neue das nur ein Speichertyp(Konsolen) gebraucht wird um beide PUs(C/G) zu bedienen. Auch hier werden massig Ressourcen verschwendet. Weil wir ja DDR3/4 und GDDR5/HBM unbedingt im PC haben müssen.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Wäre auch schön wenn dann auch Argumente kommen würden. :)
Technisch ist das seit Jahren kein Problem mehr.
So,so.
Weißt Du, wie ein Speicherschaltkreis hergestellt wird?
Da sind 5 Werkhallen ineinandergeschachtelt.
Das kostet mit Inventar so um die 10.000.000.000 Dollar.
Da kann man nicht schnell mal die Wellenlänge der Belichter halbieren, um die doppelte (vierfache) RAM-Menge zu erzeugen. Die UV-Lithografie kratzt schon langsam an der Machbarkeitsgrenze.

Die parasitären Kapazitäten lassen sich auch nicht halbieren.
Da müssen andere Materialien eingesetzt werden.
Das kostet Forschungsaufwand und Zeit.

Die Gatebreiten und Kanallängen sind schon nahe an der Tunnelgrenze der Elektronen.
Da mussen zusätzliche Isolationsgräben eingeführt werden, um das Abfließen der Ladungen zu verhindern.

Auch die Step-Repeater müssen eine immer höhere Genauigkeit erreichen, damit die feineren Strukturen auch deckungsgleich abgebildet werden können.
Allein die Temperaturänderungen sind da schon im kritischen Bereich.

Wenn Du natürlich weißt, wie man SCHNELL mal die Packungsdichte verdoppelt ohne großen Aufwand oder das Yield erhöht, werden dich die Hersteller mit Kußhand einstellen. ;)

Die Bilder im Animationsfilm werden übrigens meist mit 8.000 x 8.000 Punkten berechnet, so war's jedenfalls bis vor kurzem bei Pixar und ILM.

Man die Kerne wurden doch genau dafür eingebaut.
Wofür wurden "die Kerne" gebaut?
Zum schnellen parallelen Rechnen?

Und was ist in einem Kern?
Multiskalare ALUs mit mehrfachen Befehlsausführungseinheiten.

Lebenserwartung einer Konsolengeneration von 5-10 Jahre.
Komisch.
Meine PS1 läuft seit 17 Jahren ununterbrochen.

Und das ganze Konsolengeschwätz hat doch gar nichts mit dem PC zu tun.

Das selbe ist auch beim flüchtigen Speicher zu beobachten. AMD beweist jeden Tag aufs neue das nur ein Speichertyp(Konsolen) gebraucht wird um beide PUs(C/G) zu bedienen.
Schon mal was von Geschwindigkeit gehört?
Oder Preis?

Und weshalb sollte man schnellen DRAM dort einsetzen, wo man ihn nicht braucht (Hauptspeicher)?

Trotzdem hat das ganze Konsolengeschwätz gar nichts mit dem PC zu tun.
 
Zuletzt bearbeitet:
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Um den Zahlen mal etwas Kontext zu geben:
500k Drawcalls bei FullHD(ca. 2Mpixel) wären ein Drawcall pro 4 Pixel. Es müsste also alle vier Pixel ein neues Objekt sichtbar sein. Realistisch? Ich denke nicht.

Du könntest genauso sagen man kann nicht mehr Polygone als Pixel sehen, merkste hoffentlich selbst ne ? ;)
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Kein Spiel wird in naher Zukunft 32GB Ram benötigen, 8 Core CPU oder SLI TitanX....
Seit wann interessiert im Gaming die nahe Zukunft ?
Was möchtest du eig. genau sagen?

Das ist eine Präsentationsfolie zu Mantle, wo Oxide z.B. 2018 eine Million Batches bei 60 FPS erreichen möchte:
http://mygaming.co.za/news/wp-conte...rn-when-including-Mantle-in-a-game-engine.jpg

Sagen wir mal bei 30 FPS wären das 33K pro Frame.
"Bisschen" weit entfernt von diesem Durchsatztest mit 500K.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

So,so.
Weißt Du, wie ein Speicherschaltkreis hergestellt wird?
Da sind 5 Werkhallen ineinandergeschachtelt.
Das kostet mit Inventar so um die 10.000.000.000 Dollar.
Da kann man nicht schnell mal die Wellenlänge der Belichter halbieren, um die doppelte (vierfache) RAM-Menge zu erzeugen. Die UV-Lithografie kratzt schon langsam an der Machbarkeitsgrenze.

Die parasitären Kapazitäten lassen sich auch nicht halbieren.
Da müssen andere Materialien eingesetzt werden.
Das kostet Forschungsaufwand und Zeit.

Die Gatebreiten und Kanallängen sind schon nahe an der Tunnelgrenze der Elektronen.
Da mussen zusätzliche Isolationsgräben eingeführt werden, um das Abfließen der Ladungen zu verhindern.

Auch die Step-Repeater müssen eine immer höhere Genauigkeit erreichen, damit die feineren Strukturen auch deckungsgleich abgebildet werden können.
Allein die Temperaturänderungen sind da schon im kritischen Bereich.

Wenn Du natürlich weißt, wie man SCHNELL mal die Packungsdichte verdoppelt ohne großen Aufwand oder das Yield erhöht, werden dich die Hersteller mit Kußhand einstellen. ;)

Die Bilder im Animationsfilm werden übrigens meist mit 8.000 x 8.000 Punkten berechnet, so war's jedenfalls bis vor kurzem bei Pixar und ILM.

Wofür wurden "die Kerne" gebaut?
Zum schnellen parallelen Rechnen?

Und was ist in einem Kern?
Multiskalare ALUs mit mehrfachen Befehlsausführungseinheiten.

Komisch.
Meine PS1 läuft seit 17 Jahren ununterbrochen.

Und das ganze Konsolengeschwätz hat doch gar nichts mit dem PC zu tun.


Schon mal was von Geschwindigkeit gehört?
Oder Preis?

Und weshalb sollte man schnellen DRAM dort einsetzen, wo man ihn nicht braucht (Hauptspeicher)?

Trotzdem hat das ganze Konsolengeschwätz gar nichts mit dem PC zu tun.

1. Und wenn noch 3 Nullen hinten dran hängen würden, wenn es gebraucht wird wird es gebaut. War schon immer so. ;)
2. Laut Intel und Co. sind Strukturbreiten von bis zu 4nm möglich. Das Dauer noch bis die Ausgereizt sind. Siehe 28nm.
3. Ist es so schlimm wenn eine Platine anstatt 5,6,7.... Layer's 2 mehr hat, um zwei Reihen Speicher neben einander an zu ordnen?
4. Richtig es fehlen die Kapazitäten. Deswegen auch "was wäre wenn".
5. Mir kann es doch egal sein ob die CPU die Leistung von zum Beispiel: HBM abrufen kann oder nicht. Sei doch froh das dann der Flaschenhals weg ist. Wichtiger ist der er beides bedienen kann. Und das kann der auf Garantie!
6. Klar sind die Kerne wichtig. Oder willst Du KI, Partikel und Physik linear abarbeiten? Hätte Intel sein 10GHz Rennen gewonnen, würde ich Dir jetzt wohl sogar recht geben. :lol:
7. Speicher würde um einiges billiger sein wenn da nicht zich verschiedene Typen 3/4/5/blubb... rum geistern würden. Aber dann könnte man ja nicht min. 2 mal bei uns abkassieren. ;)
8. und mit 4k/UHD werden auch in Spielen Texturen mit 8192 Pixel wichtig. Hör schon wieder die Empörung wenn dann mal die Wand angerannt wird: "Die Texturen sind ja pixellig oder matschig"! Nur weil dann wieder aus Not die T.-Auflösung halbiert oder soweit runter komprimiert worden sind weil der Speicher nicht langt. 4/8GiB GSspeicher sind nichts. ;)
 
Zuletzt bearbeitet:
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

1. Und wenn noch 3 Nullen hinten dran hängen würden, wenn es gebraucht wird wird es gebaut.
Du kennst die Zahl nicht, gell?

3. Ist es so schlimm wenn eine Platine anstatt 5,6,7.... Layer's 2 mehr hat,
Seit wann haben die Platineneben etwas mit der Zahl der RAM-Steckplätze zu tun.
Es gibt Platinen mit 16 RAM-Slots ... .

4. Richtig es fehlen die Kapazitäten.
Ich schrieb aber von parasitären Kapazitäten.

Wichtiger ist der er beides bedienen kann. Und das kann der auf Garantie!
Das hat unter Garantie kein er verstanden.

6. Klar sind die Kerne wichtig. Oder willst Du KI, Partikel und Physik linear abarbeiten?
Daß die Kerne an sich superskalar sind hast Du auch nicht begriffen.
Dabei ist die innere Struktur viel wichtiger (Sprungvorhersage, Pipelinestruktur, ...).
Vor allem die gleichmäßige Lastverteilung ist das Hauptproblem

Speicher würde um einiges billiger sein wenn da nicht zich verschiedene Typen 3/4/5/blubb... rum geistern würden. Aber dann könnte man ja nicht min. 2 mal bei uns abkassieren
Man kann aber DDR4 nicht ohne die Erkenntnisse, Technologien, Materialien u.s.w. aus der Produktion vor DDR2 entwickeln ... .

Den Rest des Off-Topics streichen wir mal.

ZzT.
 
Zuletzt bearbeitet:
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Stell dir halt einfach vor wie BF5 mit 500K Draws ein BF4 richtig alt aussehen lässt.



Batching kommt mit diversen Limits und ist weniger flexibel. Objekte müssen die selben Materialien haben, wenig Polygone oder gar statisch sein.
Hier lies selbst : Unity - Manual: Draw Call Batching

Die Monster Raumschlacht in Star Citizen mit hunderten high poly Raumschiffen wird ohne dx12 garantiert NICHT realisierbar sein.

Um 500.000 Draw Calls an Stelle von 10.000 Draw Calls 1:1 in bessere Grafik umzusetzen, bräuchte man auch 50 mal so viel Shader und Texturleistung. Es werden viele Jahre vergehen, bis derartige GPUs verfügbar sind. Betrachtet man zudem die Performance des BF4 Singleplayers (der eine ähnliche Grafik darstellt), dann bezweifle ich, dass das Spiel auf Quadcore-CPUs durch den Direct3D-Thread limitiert wird. Am sehr hohen Ressourcenverbrauch des Multiplayer/Netwerkcodes wird DirectX 12 nichts ändern.

100 high-polygon Raumschiffmodelle sollten übrigens maximal 100 Draw Call Batches erfordern.
 
AW: DirectX 12: AMD zeigt sich euphorisch über 3DMark API-Overhead-Test

Du kennst die Zahl nicht, gell?

Seit wann haben die Platineneben etwas mit der Zahl der RAM-Steckplätze zu tun.
Es gibt Platinen mit 16 RAM-Slots ... .

Ich schrieb aber von Kapazitäten.

Das hat unter Garantie kein er verstanden.

Daß die Kerne an sich superskalar sind hast Du auch nicht begriffen.
Dabei ist die innere Struktur viel wichtiger (Sprungvorhersage, Pipelinestruktur, ...).
Vor allem die gleichmäßige Lastverteilung ist das Hauptproblem


Man kann aber DDR4 nicht ohne die Erkenntnisse, Technologien, Materialien u.s.w. aus der Produktion vor DDR2 entwickeln ... .

Den Rest des Off-Topics streichen wir mal.

ZzT.

Sorry das ich erst jetzt Antworte. Hatte gestern keinen Bock mehr. So und nun ab dafür. :)

Nein, es sind nicht 10 Milliarden sonder "nur" 6 bis 7. Das es vielleicht ein wenig Sarkastisch/Ironisch/Humoristisch(such Dir was aus) gemeint war, ist leider nicht bei Dir angekommen. ;)

Wo hab ich von Steckplätzen geredet? Hier ging es um den Platz auf der Graka! Die Platine würde etwas größer aber das war es auch. Dies war auf eine Post bezogen "bevor" Du dich eingeklinkt hast!

"Parasitären"? Was ändert das an der Gesamt Kapazität? Nichts. Zumal ich nicht verstanden hab was Du mir/uns damit sagen willst. Bitte um Aufklärung

Und wenn man es aus den Zusammenhang zerrt - kein Wunder... Siehe Platz auf der Graka.

Was hast Du mit Superskarlar. Und was hat das Problem mit der Anbindung des Speicher zu tun? Bitte hier wiederum um Aufklärung. Ist ja nicht so das ich mich "nicht" eines besseren Belehren lasse. ;)

Nein, das sollte auch dem letzten klar sein. Hab ich das in irgend einer weise behauptet? Das legst Du mir Grade in den Mund.

HBM ist nun mal der Speicher, der das Zeug hat, das Bandbreiten Problem zu eliminieren. Kann sein das es nicht in der ersten Gen ganz klappt aber ab der 2ten spätesten in der 3ten sollte soweit sein.

Nun zum Rest des Offtopic:

Fakt ist das die Infrastruktur unser jetzigen PC nicht mehr zeitgemäß ist. Vor 5 Jahren - ach nicht mal - an dem Tag als HBM und seine Spezifikation verabschieden wurden, wurden andere Speichertypen zweitrangig bis überflüssig. AMD hat gezeigt das man auch 220Watt( der FX) abführen kann. Wir haben Grakas die ohne zu murren 300W fressen. AMD hat APU die 95(und weniger) Watt aus der Steckdose saugen und dabei auf dem Niveau einer Radeon7770(und das obwohl beide Units(C/G) sich ein und den selben Speicher teilen(zum Teil nur DDR3 - Konsole DDR5) oder höher agieren. Das alleine zeigt schon was für ein Potenzial in der Technologie steckt. Stell Dir mal vor wenn man eine APU mit sagen wird mal mit 300Watt bauen würde und dazu gehörende Leistung. Wenn auf einmal die Heizplatte unter der CPU verschwunden ist. Das nicht mehr alles zwei mal verbaut werden müsste. Angefangen beim Speicher über Controller, Transistoren, Kondensatoren bis hin zu den Platinen. Nicht nur das es unglaublich viel Strom spart(und das nicht nur bei dir zu Hause besonders auch in der Produktion) und auch weniger Abwärme entsteht, nein es würde dir auch viel weniger beim Kauf kosten. Es würde vieles vereinfachen was die interne Logik angeht(Sprungvorhersage, Pipelinestruktur, Latenzen, Leckströme, blablubb... ).

Nein das wird einfach nicht gesehen bzw. nicht angenommen. Sehe schon die Überschritt: "AMD baut 300W APU. Das "aus" für die Kalifornier"? Das so ein System schon 100-150Watt(meine Schätzung) in peripheren Umfeld einsparen kann wird dann nicht gesehen. Das AMD mit seinen APUs weit vor den anderen ist und auch die Möglichkeiten haben das um zu setzten ist dann wieder einmal egal.

Ich bin davon überzeugt und es wird schwer sein mich eines anderen zu belehren. Ist der Tellerrand wirklich so hoch?

PS: Was noch ein solcher Vorteil ist, das wenn der Speicher für die Grafik nicht mehr reicht Aber die APU immer noch mithalten kann, das man einfach nachrüsten kann. Wenn 8GiB nicht mehr langen dann kloppt man halt 16 rein. Wenn das keine tolle Sache ist na dann weiß ich es auch nicht mehr....
 
Zuletzt bearbeitet:
Zurück