Radeon Vega II: AMD zeigt bei CES angeblich Consumer-Grafikkarte auf Vega-20-Basis

Da müsste Raff' doch feuchte, glänzende Augen bekommen :sabber:
_____

Zum Topic: interessant. Mal schauen, wie sie sich (evtl.) schlägt.
 
Fakt ist Ich werd sie mir Kaufen , denn erstens ich will 2019 schnellere Hardware und da mir kein NV kram in die kiste kommt wird es ne Vega2 und ich bin gespannt 1800Mhz+ wird sicher schub bringen hoffentlich dann auch mit besagtem 4096 Interface oder eben schnelleren Taktraten für den HBM auf 2048 Bit aber da die Aktuelle Instinct auf 7nm Basis eben schon einen Boosttakt von 1.8Ghz aufbringt und das 4096Bit SI darf man gespannt sein ....
 
Fakt ist Ich werd sie mir Kaufen , denn erstens ich will 2019 schnellere Hardware und da mir kein NV kram in die kiste kommt wird es ne Vega2 und ich bin gespannt 1800Mhz+ wird sicher schub bringen hoffentlich dann auch mit besagtem 4096 Interface oder eben schnelleren Taktraten für den HBM auf 2048 Bit aber da die Aktuelle Instinct auf 7nm Basis eben schon einen Boosttakt von 1.8Ghz aufbringt und das 4096Bit SI darf man gespannt sein ....

Nehmen wir mal an es gäbe ne FE mit 30% mehr als Vega und 4 Stacks würde ich zumindest drüber nachdenken wenn nicht mehr als 600 gefordert werden. Aber wie gesagt, ich glaube nicht drann. Und an den Preis sowiso nicht. Der ist nur mein Wunsch und bei 4 Stacks unrealistisch.
 
Ich würde bis 1000 Euro gehen, wenn ein bisschen mehr als 1080 Ti Niveau drin ist. 16GB VRAM wären natürlich lecker...
 
Die MI60 Instinct dürfte ja kaum an der Kotzgrenze laufen, nicht?
Sie ist zwar augenscheinlich in ein 300W-"Korsett" "gezwängt", aber wenn ich das richtig verstanden habe, sind die 300 Watt das Maximum an Dauerlast wofür die Serverinfrastruktur ausgelegt wird pro GPU, nicht?
NVidia erhöhte ja letztens bei einer ihrer Karten auf 450Watt.
 
Hast du eigentlich nie Zweifel an deiner Wahrnehmung?

Nein, natürlich nicht, wenn jemand mit Android argumentiert obwohl es um Windows und Directx11 geht, bleibt mir jedenfalls die Spucke weg. Substanz über Substanz wo man hin sieht.

Direct x11 ist die am meisten genutzte API, ergo ist die Leistung in dieser API für einen GPU Käufer auch am wichtigsten.

Und AMD steht da oft sehr schlecht da, grade mit einer langsamen CPU.
 
Nein, natürlich nicht, wenn jemand mit Android argumentiert obwohl es um Windows und Directx11 geht, bleibt mir jedenfalls die Spucke weg. Substanz über Substanz wo man hin sieht.

Direct x11 ist die am meisten genutzte API.
Wie kommst du nur auf so einen Unsinn?

Apple rendert mit Metall und Android wird demnächst auf Vulkan setzen und ist damit doppelt so schnell. Kannst dir gerne die "Gnom Horde" ansehen.

DX11 ist auch für nVidia keine Zielsetzung mehr:
1. würde DXR und damit RTX nicht lauffähig sein
2. viele Hardwarewarenahe Feature würden gar nicht funktionieren oder nutzbar sein (Tier_3 usw.).
nVidia Statement zu DX12+DXR schrieb:
Volume Tiled Resources
Conservative Raster
Raster Order Views
Tiled Resources
Typed UAV Access
Bindless Texturen
Asynchronous Comput

Kannst du deine geistigen Ergüsse nicht auf nVidia Hardware Threads beschränken? DX11 hat keinerlei Relevanz mehr. Alle Neuentwicklungen werden auf neueren Schnittstellen aufsetzen. Gerade Vulkan macht auf weniger leistungsfähigen Geräten Sinn, kann aber auch andere Entwicklungen beschleunigen.

Nur weil man Spiele weniger gut von Konsolen auf PCs portieren kann, heisst das nicht das alle und ewig auf auf DX11 setzen.
 
amd versuchte den treiber so auch unter dx12 zertifizieren zu wollen. scheint nicht geklappt zu haben. er soll microsoft mehrere monate vorgelegen haben. dort konnte man lesen, in progress. man hatte ihn also eingereicht. man kann nur annehmen das microsoft hätte amd bevorzugen müssen und das macht man dort nicht. man muss sich an api vorgaben halten. alles andere ist wie gameworks was internes. als amd mitteilte das sie den allgemeinen pfad aufgeben war der eintrag dann bei microsoft verschwunden. wird amd wohl ein eigenes softwarebackend unter dx12 brauchen und das kollidiert mit ihrem grundgedanken open source.
Nein - darum ging es überhaupt nicht. Warum sollte Microsoft AMD etwas verwehren das ein Hardwarenahes Feature sein kann und durch DX12 unterstützt werden könnte (das ist ja nichts weiter als eine Sammlung), wenn nicht als allgemeines Feature, dann eben als spezielles nur für AMD. Das ist überhaupt kein Problem.

Es ging darum das der allgemeine Treiberstack den Entwicklern die Arbeit stark erleichtert hätte. Sie hätten den NGG Path so nur einmal ansprechen müssen und der Treiber hätte den Rest erledigt. Der Aufwand beim Entwickler wäre drastisch gesunken und das war auch Koduris Absicht, mehr auf die Entwickler eingehen und ihnen zu helfen. Softwareressourcen finden und freisetzen. Nur ist das nicht so einfach wie es erscheint, Enginesupport inbegriffen.

Der NGG Path und damit die Primitive Shader sind durch Entwickler über APIs ansprechbar, genauso wie FP16 und DSBR (directX). Nur bringt es ohne den Treiber erheblichen Programmierungsaufwand mit sich, worauf die Entwickler aus zeitlichen Gründen zu oft verzichten. Ohne optimierte Treiber werden die Ergebnisse wegen der komplexen Schnittstelle dann zu durchwachsen ausfallen, denn die Entwickler sind auf sich allein gestellt. Schon unter DX12 hängt es davon ab, was der Entwickler wirklich leisten kann und er auf Tasche hat.

Unter Linux Kernel und GPUopen (source wie amdvlk) wird NGG derzeit durch gfx9 noch nicht unterstützt, dass soll mit gfx10 (Navi) behoben werden. Möglich sind dann auch Erleichterungen durch den Treibersupport, den AMD dann erneut in Angriff nehmen will.

Zur Erläuterung: Koduri verzichtete bei Vega auf das "Aufbohren" der Rasterengine in Hardware - trotz hoher Shaderanzahl. Man hielt an den 4 Rasterengines fest (Fiji), was wahrscheinlich auch eine Vorgabe durch AMD war, um die Kosten bei der Entwicklung und Produktion zu senken. Die 4 Engines ergeben einen Output von 4 Primitives pro Takt und könnten im Zusammenspiel mit NGG auf max 17 Primitive gesteigert werden.

Das dies bei Vega20 geändert wurde glaube ich nicht. Der Chip wird wenn er für Consumer kommt, eher von der 7nm Effizienz profitieren können und wie gesagt können Entwickler die hardwarenahen Feature ansprechen. Es machen nur weniger oder keiner davon Gebrauch, weil es sehr komplex ist - man dann Aufwand und Nutzen gegenüber stellt.

Ich glaube an eine Vega20 FE. Die wird mehr kosten als 600$, ich würde von 900-1200 ausgehen.

Die TDP für Vega20 liegt bei MAXIMAL 300Watt = nicht allgemein 300Watt.
 
Zuletzt bearbeitet:
Low-Level-API: Unity Engine mit DirectX 12 schneller auf der Xbox One - ComputerBase
Das klingt doch mal interessant. Hoffentlich gehen mehr auf Unity, ich kann diesen UE4 Crap nicht mehr sehen.

So lässt man threadsichere Datenkonvertierung zu. Das Timing kann optimiert werden. Bitte daran denken, auf Desktop zwar verfügbar - aber Vulkan closed. Vulkan macht auch auf Konsolen Sinn.

Um zu vergleichen, müsste man Epics Zielsetzung kennen (mit UE4).:)
 
Schon ein sehr belustigender Thread muss ich sagen, allein die Spekulationen über Navi wo man ja 0,0 Infos und meiner Ansicht nach kann man damit auch keine Einschätzung treffen was die Leistung betrifft.
Aber ist schon mal jemand auf die Idee gekommen, dass man mit Vega 20 einfach Vega 10 ersetzt, weil es mit Navi noch etwas dauert und man die 7nm Produktion auslasten muss? Sollte von der Größe des DIEs ja nicht teurer sein sondern eher günstiger die Vega20 zu fertigen.
Aber lassen wir uns überraschen, dauert ja nicht mehr lange.
 
Schon ein sehr belustigender Thread muss ich sagen, allein die Spekulationen über Navi wo man ja 0,0 Infos und meiner Ansicht nach kann man damit auch keine Einschätzung treffen was die Leistung betrifft.
Aber ist schon mal jemand auf die Idee gekommen, dass man mit Vega 20 einfach Vega 10 ersetzt, weil es mit Navi noch etwas dauert und man die 7nm Produktion auslasten muss? Sollte von der Größe des DIEs ja nicht teurer sein sondern eher günstiger die Vega20 zu fertigen.
Aber lassen wir uns überraschen, dauert ja nicht mehr lange.

Oder es kommt eine Vega 10 "12nm" :)
Wer weiss, vielleicht kommt auch gar nichts bis Navi und es gibt nur wieder zwei drei neue Wallpapers :P

Freie Spekulation ist immer spannender als diese lästigen, sinnbefreiten, gegenseitigen Anfeindungen. Warum sich die Fantasie künstlich einschränken lassen?
 
Wie kommst du nur auf so einen Unsinn?

Dein Beitrag ist wie immer völlig außerhalb jedes Zusammenhangs, genauso wie der von gaussmath.

Wollte nur darauf hinweisen, dass mobile Plattformen und deren APis was PC Gaming angeht einfach keinen Menschen interessieren.

Direct x11 und DirectX 12 mit einem winzigen und Vulkan mit einem mikroskopisch kleinen Anteil sind die unter Windows genutzten APIs.

Wen soll da Android jucken und auf welche API die Entwickler auf dieser Plattform setzen?
Das juckt am PC einfach niemanden.
Da Android auf OpenGL und Vulkan aufsetzt, wäre ich vorsichtig mit der Aussage.

Gaussi wollte einfach nur ein bisschen Sand aufwirbeln. Argumentationen out of context ergeben nie Sinn und dienen zur allg. Belustigung.

.
Die TDP für Vega20 liegt bei MAXIMAL 300Watt = nicht allgemein 300Watt.

Nein, AMD gibt für Vega 20 die TBP an und nicht die TDP.
 
Zuletzt bearbeitet:
... mit Vega 20 einfach Vega 10 ersetzt...
Da NVidia den Launch der 2060 auf den 07.01. legt, muss was kommen. Man will vorher launchen. Ersetzen wäre schlichtweg zu teuer, wie geschrieben ist Prosumerhardware vorstellbar. Allgemein ersetzen glaube ich persönlich nicht, aber unmöglich ist es nicht. Eine Vega2 56/64 wäre in 7nm sicher ein sparsamere Option (MI50), wenn das Binning genug abwirft. Man muss ja nicht nur OC Karten auf den Markt schmeißen, bei gleichem Takt wie Vega könnte Vega2 ganz sicher sparsamer ausfallen.
 
Dein Beitrag ist wie immer völlig außerhalb jedes Zusammenhangs, genauso wie der von gaussmath.

Wollte nur darauf hinweisen, dass mobile Plattformen und deren APis was PC Gaming angeht einfach keinen Menschen interessieren.

Direct x11 und DirectX 12 mit einem winzigen und Vulkan mit einem mikroskopisch kleinen Anteil sind die unter Windows genutzten APIs.

Wen soll da Android jucken und auf welche API die Entwickler auf dieser Plattform setzen?
Das juckt am PC einfach niemanden.


Gaussi wollte einfach nur ein bisschen Sand aufwirbeln. Argumentationen out of context ergeben nie Sinn und dienen zur allg. Belustigung.
Geh mal zum Arzt, deine hochgradig abstrusen Antworten stehen nämlich in keinem Zusammenhang. Wo wird denn DX11 noch als API massenhaft angewendet? Seit wann ist PC Gaming auf Basis von dGPUs eines der größten Marktumfelder, alle Engine Anbieter stellen den Support mittlerweile auf DX12 oder ähnliche Paralellisierung um (im Übrigen auch Epic).

Bitte poste deinen geistigen D*nnschiss in nVidia Threads. Du versuchst hier mit deinen Trollversuchen einfach das Thema für dein nVidia versus AMD Geblubber aufzuweichen. Dort soll sich dann jemand anders um die Berichtigung kümmern.

Der weltweite Marktanteil von android auf mobilen Geräten liegt bei 87,7%!
 
DX11 ist auch für nVidia keine Zielsetzung mehr:
1. würde DXR und damit RTX nicht lauffähig sein
2. viele Hardwarewarenahe Feature würden gar nicht funktionieren oder nutzbar sein (Tier_3 usw.).

Natürlich ist DirectX 11 keine Zielsetzung mehr, wenn es darum geht RTX nach vorne zu bringen, allerdings hab ich auch nie was anderes behauptet.

Direct X 12 oder Vulkan kommen aber nunmal nicht von heute auf morgen, genau das sollte so jemand wie du ja abschätzen können, offenbar stellt das aber eine zu große Hürde dar.

Weitblick kann ja nicht jeder haben.
Kannst du deine geistigen Ergüsse nicht auf nVidia Hardware Threads beschränken? DX11 hat keinerlei Relevanz mehr.

Deswegen werden die Featurelevels also noch gepflegt, weil die am weitesten verbreitete API, auch bei Neuentwicklungen, keinerlei Relevanz hat. Lel.

Die Aussage ist wieder mal lustig. :D
Alle Neuentwicklungen werden auf neueren Schnittstellen aufsetzen.

Nein, die mit Abstand meisten Entwicklungen setzen nach wir vor auf Directx11.
Das kann man in 5 sek. googeln.

Vielleicht wäre das ja einmal eine Chance dich nicht so weit aus dem Fenster zu lehnen.
Es gibt seit Jahren ein Programm in den man mit Suchbegriffen sein Wissen auffrischen kann.

heisst das nicht das alle und ewig auf auf DX11 setzen.

Na 2022 könnte man sich schon vorstellen dass Direct 11 dann mal komplett abgelöst wird.
Wobei auch das eher Wunschdenken ist.
Die ganzen Indie Entwickler werden wohl auch da noch Directx11 verwenden.

Du versuchst hier mit deinen Trollversuchen einfach das Thema für dein nVidia versus AMD Geblubber aufzuweichen. Dort soll sich dann jemand anders um die Berichtigung kümmern.

Was hat denn der Fakt dass Direct X 11 in den meisten PC Spielen als API verwendet wird mit AMD vs Nvidia zu tun? :D

Der weltweite Marktanteil von android auf mobilen Geräten liegt bei 87,7%!

Und der Direct x11 Anteil unter Windows irgendwo zwischen 95 und 100%.
Wobei Player unknowns kann man ja jetzt auch am Handy spielen, vielleicht kann ich Vega mittels eDGPU Gehäuse irgendwie anflanschen, das wäre doch mal ein Projekt für deine Kragenweite. ^^
 
Zuletzt bearbeitet:
Zurück