• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Smart Access Memory: Nvidia arbeitet wohl an Alternative für Ampere

-ElCritico-

Freizeitschrauber(in)
Ich habe auch nirgends behauptet, dass nVidia exakt das Gleiche macht wie AMD. Jedoch behaupten sie mit ihrer Implementation vergleichbare Leisrungszugewinne erzielen zu können und es gibt erst mal keinen Grund daran zu zweifeln. (Immerhin haben diese schon einige GPUs draußen die zudem auch unabhängig getestet sind, während es bisher vorläufig nur AMDs Werbeaussagen und noch keine Produkte gibt.)
Die Base Address Register stellen jedoch die Grundlage dessen dar, was hier beide Hersteller performancesteigernd zu implementieren versuchen.
Wie der MS-Link zuvor bereits zeigte, hat Microsoft eine Möglichkeit zur Nachverhandlung der Größe bereits in 2017 implementiert:
"When the renegotiation is successful, the kernel mode driver will observe that the GPU BAR has been resized to its maximum size to expose the entire VRAM of the discrete GPU.
Upon successful resizing, the kernel mode driver should expose a single, CPUVisible, memory segment to the video memory manager. The video memory manager will map CPU virtual addresses directly to this range when the CPU need to access the content of the memory segment.
"

Zumindest trifft dein letzter Satz wenigstens zu.
Alle meine Sätze treffen zu. Ich habe belegt, dass AMD nicht einfach einen offenen Standard umbenannt hat, sondern auf der BIOs-Firmware-Ebene noch mehr implementiert hat. Das war ja der Vorwurf hier. Übrigens arbeitet Intel auch seit längerem an einer solchen Lösung auf der Firmware-Ebene. Nvidia hat keine andere Wahl als es auf der OS-Ebene zu lösen. Da halten sich die Zugewinne in Grenzen.
 

Lichtspieler2000

Freizeitschrauber(in)
Naja, sich bei einem offenen Standard mit fremden Federn schmücken ist für den Käufer weniger nachteilig, als ein propitärer Standard, der einen in ein bestimmtes Ökosystem zwingt.
AMD zwingt einem doch zu einem bestimmten Ökosystem. Das neueste vom neuen. Hier geht es nur um mehr Produkte abzusetzen.
Ob die zugrunde Liegende Technik nun brotbrietär ist nicht ist, spielt hier weniger eine Rolle.
Tja - dann ist auch GSync nicht proprietär.
Freesync ist nur der Treiber, Klickibunti und Marketing.
Wie kann man das nicht wissen?
SAM ist das gleiche, nur muss man hierfür richtige CPU, Board und Grafikkarte haben, was das Feature halb-brotbrietär macht, sofern man es so ausdrücken will.

AMD kann das sofort freigeben. Lisa gibt dir einen Ruck.
 
Zuletzt bearbeitet:

BlueKingMuch

Freizeitschrauber(in)
GSync hatte 2013 die Markteinführung - sprich kaufbare Monitore. Da erst hat VESA adaptive-Sync in den Standard aufgenommen. 2009 war es definit NICHT standard von DP sondern nur für embedded Devices - warum versuchst du die Realität zu verdrehen und bringst nur Halbwahrheiten und Lügen?

Wenn man das Zitat in deinem Beitrag von ihm liest, hat er auch nie gesagt dass es im offiziellen VESA Standard so drinnen war (man beachte das fett markierte):

Die Realität ist, daß AdaptiveSync seit 2009(sic!) im VESA embedded Display Port Standard drin ist – das war fünf Jahre, bevor GSync vorgestellt wurde.

Da steht eindeutig embedded Display Port Standard, und das ist weder eine Halbwahrheit oder Lüge, Quelle hier:

LINK für dieses Zitat:
Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009

Man könnte deshalb behaupten dass nVidia bei GSync sich viel von dem eDP Standard abgekuckt hat. Ist jedenfalls genauso gut belegbar wie die Aussage, dass VESA (obwohl sie im embedded Display Standard das schon hatten) lieber ihre eigenenen Standards ignoriert und lieber den Umweg über ein Anderes Unternehmen macht. Kann zwar durchaus stimmen, ich halte es aber für realistischer, dass man vorhandene Technik, die man selbst schon kennt weiterentwickelt.
 

Illithide

Freizeitschrauber(in)

Herbststurm

Freizeitschrauber(in)
Da brauche ich mir mit meiner ollen Hardware und der GTX1070 schon mal gar keine Gedanken machen.

Ist aber schön zu sehen, dass auch mal was neues kommt und es voran geht, egal wer es als Erster angestoßen hat und es noch auf den Weg bringt .... unter welchen Namen auch immer. ^^
 

4thVariety

Software-Overclocker(in)
Aktuelle CPU/GPU Produkte.

(1) CPU (Ryzen Serie und einige Intel Chips)= reine CPU
(2) Office APU (Intel Core-i oder Ryzen-G) = Viel CPU Leistung + Multimedia GPU + Kartoffel-3D
(3) Konsolen APU = So viel CPU wie nötig, plus so viel GPU wie möglich
(4) Gaming GPU reine 3D Karte

Jetzt kann man ja durchgehen wer was hat.

Nvidia ist fast dazu verdammt Marktführer zu sein auf Position 4, denn viel andere Sachen haben sie nicht. Ja, die Switch und das Shield. Aber die Kohle wird mit GeForce gemacht und da wäre es schlecht nur Zweitbester zu sein. Nvidia kennt die Schwäche keine Gaming-CPU zu haben und sie umgehen das Problem so gut es geht.

Intel ist dazu verdammt Marktführer bei den CPUs zu sein, denn Grafikkarte haben die 10 Jahre nicht auf die Beine gebracht. Dominanz im Office und Serverbereich war da, aber man sieht wie schnell es geht. Der Markt als ganzes kennt keine Markenloyalität. Intel hat diese Schwäche erkannt, will in den 3D Markt einsteigen.

AMD ist die einzige Firma die überhaupt jeden Spot 1-4 mit etwas besetzt das der Erwähnung wert wäre. Selbst als die knapp hinter Intel und knapp hinter Nvidia waren ist die Breite des Katalog ein Vorteil für die Zukunft. Denn dieser Split in eine reine CPU und eine reine GPU die von jedem PC Gamer gekauft werden ist eher künstlicher Natur. Dafür gibt es keinen anderen Grund als dass es immer schon so war und die drei Hauptakteure sich entweder nicht bewegen wollen (AMD), oder können (Intel, Nvidia).

Nicht zu vergessen wäre, dass Microsoft immer noch auf Softwareseite der große Dominator ist. Die stehen auch vor der Wahl, ob sie Intel und Nvidia wie ein Wasserfall bequatschen, damit die bei einem Feature zusammen kommen, oder ob man den Pfad mit AMD einschlägt. Spoiler Alert, Nvidia ist und wird immer schlecht auf Intel zu sprechen sein wegen der Sache mit der x86 Lizenz. (https://www.anandtech.com/show/4122/intel-settles-with-nvidia-more-money-fewer-problems-no-x86/2)

Die Zukunft der PC Mittelklasse wird es nicht sein einen 150€ Prozessor mit einer 250€ Grafikkarte zu kombinieren, sondern eine APU nach Bauart 3 zu kaufen. Weil so kann sich AMD billige Intel Chips vom Hals halten und die 50er, 60er Serie von Nvidia ebenfalls. Aus solchen Gründen implementiert AMD jetzt eine Technologie die im Dornröschenschlaf schlummerte. AMD hatte jetzt 10 Jahre gebraucht sich wieder nach oben zu kämpfen, damit sie gegen zwei Firmen die dazu verdammt sind hochspezialisiert zu sein vorne bleiben, müssen sie ihre Stärken ausbauen.

Schaut auch auf die OEMS wie Asus, Gigabyte oder Corsair. Die geben sich nicht mehr damit ab nur eine GPU zu fertigen, die haben aggressiv eine Linie verfolgt, dass die jedes einzelne Teil eines PCs im Programm haben. Von denen könnte jeder effektiv Komplett-PCs fertigen. Vor 10 Jahren war Asus groß im Office Barebonegeschäft vertreten, das ist heute weg. In den nächten 5-10 Jahren werden wir erneut einen heftigen Umschwung sehen. Aus AMD Sicht könnte der heute passieren, Intel und Nvidia wären nicht dafür bereit. Daher muss Nvidia nachziehen wenn AMD mit solchen Features vorlegt.
 

MyticDragonblast

Komplett-PC-Aufrüster(in)
Kerngeschäft bleibt Kerngeschäft, da umzusteigen ist als Hardwarehersteller mit hoher Kapitalbindung schon schwierig. Das Knowhow gibt man nicht gerne auf, ist was anderes als bei Software, wo man nicht mal Produktionskapazitäten vorhalten muss. Für Microsoft ist der Umstieg vom Kerngeschäft Windows&Office auf Azure&Infrastruktur möglich, der Gang wieder zurück kaum. Asus wird einen Teufel tun ihr Mainboardgeschäft für Intel-Plattformen einzustellen, da man seit der Pentium-Ära einen Stein im Brett hat. Gigabyte als Mainboard-Marktführer wird ebenfalls nicht an der Sparte sparen.
Mal eben ein Netzteil releasen kann jeder, die Hersteller sind banchenweit ja nicht so viele. Klebt man halt ROG oder was anderes drauf drauf und baut LEDs ein, fertig. Das sind eher nachfrageorientierte Zusatzprodukte. Vor 10 Jahren haben noch Hinz und Kunz Netzteile bei ihren Gehäusen mitgeliefert, aber die Kunden wollten lieber Produkte ohne Netzteil.
Was tatsächlich aber die Stoßrichtung zu sein scheint, wie 4thVariety treffend feststellt sind APUs und SoCs. Apple hat gerade damit angefangen und die SIs im PC-Bereich werden ganz genau schauen, wie hoch die Gewinnspanne für solche Lösungen ist. Intel integriert Xe in Ihre CPUs und AMD Vega und die Produkte werden auch nachgefragt(siehe Notebook Ryzen 4xxx).
 

Solavidos

Freizeitschrauber(in)
Nein, aber zum SAM nutzen.
Du hast doch eine RTX 2060 und eine Intel CPU. Laut dem Artikel wird Nvidia so freundlich sein, dass bestimmt für dich freizuschalten. =)

Jetzt kann man ja durchgehen wer was hat.
Nvidia ist fast dazu verdammt Marktführer zu sein auf Position 4, denn viel andere Sachen haben sie nicht. Ja, die Switch und das Shield. Aber die Kohle wird mit GeForce gemacht und da wäre es schlecht nur Zweitbester zu sein. Nvidia kennt die Schwäche keine Gaming-CPU zu haben und sie umgehen das Problem so gut es geht.
Nicht nur Switch und Shield bringen etwas Geld, sondern sie haben auch ARM gekauft. Es werden auch immer mehr Autos mit Chips benötigt. Ich denke sie stellen sich schon gut auf mit den letzten Entscheidungen, um sich unabhängiger zu machen. Zumindest würde ich mir noch keine Sorgen machen.
Intel ist dazu verdammt Marktführer bei den CPUs zu sein, denn Grafikkarte haben die 10 Jahre nicht auf die Beine gebracht. Dominanz im Office und Serverbereich war da, aber man sieht wie schnell es geht. Der Markt als ganzes kennt keine Markenloyalität. Intel hat diese Schwäche erkannt, will in den 3D Markt einsteigen.
Intel hat trotz Ryzen und Problemen mit seiner CPU Fertigung Rekordzahlen gemeldet. Alleine die Sparte Data Center Group hat im letzten Jahr mehr als 50% Gesamtumsatz gebracht. Man ist da schon breit aufgestellt mit Speicher (Optane), Internet of Things, FPGAs (programmierbare Altera-Prozessoren) und Mobileye (Spezialchips für Autos).

Quelle: https://www.heise.de/newsticker/mel...kord-von-72-Milliarden-US-Dollar-4645120.html

Für dieses Jahr sehen die Zahlen im Server Bereich etwas schlechter aus, aber ich habe mich nur mal auf die Zahlen aus 2019 bezogen, da diese schon alle da sind.

Immer wieder krass finde ich die Leistung von AMD. Im Vergleich mit Intel ist AMD eine Garagenfirma und die machen solche Top Produkte.
 

pgcandre

Komplett-PC-Aufrüster(in)
Aktuelle CPU/GPU Produkte.

(1) CPU (Ryzen Serie und einige Intel Chips)= reine CPU
(2) Office APU (Intel Core-i oder Ryzen-G) = Viel CPU Leistung + Multimedia GPU + Kartoffel-3D
(3) Konsolen APU = So viel CPU wie nötig, plus so viel GPU wie möglich
(4) Gaming GPU reine 3D Karte

Jetzt kann man ja durchgehen wer was hat.

Nvidia ist fast dazu verdammt Marktführer zu sein auf Position 4, denn viel andere Sachen haben sie nicht. Ja, die Switch und das Shield. Aber die Kohle wird mit GeForce gemacht und da wäre es schlecht nur Zweitbester zu sein. Nvidia kennt die Schwäche keine Gaming-CPU zu haben und sie umgehen das Problem so gut es geht.

Intel ist dazu verdammt Marktführer bei den CPUs zu sein, denn Grafikkarte haben die 10 Jahre nicht auf die Beine gebracht. Dominanz im Office und Serverbereich war da, aber man sieht wie schnell es geht. Der Markt als ganzes kennt keine Markenloyalität. Intel hat diese Schwäche erkannt, will in den 3D Markt einsteigen.

AMD ist die einzige Firma die überhaupt jeden Spot 1-4 mit etwas besetzt das der Erwähnung wert wäre. Selbst als die knapp hinter Intel und knapp hinter Nvidia waren ist die Breite des Katalog ein Vorteil für die Zukunft. Denn dieser Split in eine reine CPU und eine reine GPU die von jedem PC Gamer gekauft werden ist eher künstlicher Natur. Dafür gibt es keinen anderen Grund als dass es immer schon so war und die drei Hauptakteure sich entweder nicht bewegen wollen (AMD), oder können (Intel, Nvidia).

Nicht zu vergessen wäre, dass Microsoft immer noch auf Softwareseite der große Dominator ist. Die stehen auch vor der Wahl, ob sie Intel und Nvidia wie ein Wasserfall bequatschen, damit die bei einem Feature zusammen kommen, oder ob man den Pfad mit AMD einschlägt. Spoiler Alert, Nvidia ist und wird immer schlecht auf Intel zu sprechen sein wegen der Sache mit der x86 Lizenz. (https://www.anandtech.com/show/4122/intel-settles-with-nvidia-more-money-fewer-problems-no-x86/2)

Die Zukunft der PC Mittelklasse wird es nicht sein einen 150€ Prozessor mit einer 250€ Grafikkarte zu kombinieren, sondern eine APU nach Bauart 3 zu kaufen. Weil so kann sich AMD billige Intel Chips vom Hals halten und die 50er, 60er Serie von Nvidia ebenfalls. Aus solchen Gründen implementiert AMD jetzt eine Technologie die im Dornröschenschlaf schlummerte. AMD hatte jetzt 10 Jahre gebraucht sich wieder nach oben zu kämpfen, damit sie gegen zwei Firmen die dazu verdammt sind hochspezialisiert zu sein vorne bleiben, müssen sie ihre Stärken ausbauen.

Schaut auch auf die OEMS wie Asus, Gigabyte oder Corsair. Die geben sich nicht mehr damit ab nur eine GPU zu fertigen, die haben aggressiv eine Linie verfolgt, dass die jedes einzelne Teil eines PCs im Programm haben. Von denen könnte jeder effektiv Komplett-PCs fertigen. Vor 10 Jahren war Asus groß im Office Barebonegeschäft vertreten, das ist heute weg. In den nächten 5-10 Jahren werden wir erneut einen heftigen Umschwung sehen. Aus AMD Sicht könnte der heute passieren, Intel und Nvidia wären nicht dafür bereit. Daher muss Nvidia nachziehen wenn AMD mit solchen Features vorlegt.
 

Olstyle

Moderator
Teammitglied
Wenn am Ende ausgerechnet NV dafür sorgt dass AMD sein "exklusives" Feature doch weiter freigeben wird wäre das natürlich der Treppenwitz schlechthin, aber als Zen2 Besitzer würde es mich freuen.

@Warum nicht früher?
Nur weil etwas spezifiziert wurde heißt das noch nicht dass es reale Leistungsvorteile gibt. Und oft tut es das auch zur Zeit des Release nicht sondern erst wenn andere Dinge dazu kommen. Dazu ist das gedachte Einsatzgebiet während der Spezifikation z.T. ein deutlich Anderes.
Das Beispiel VRR kam ja schon: Man hatte es spezifiziert um den Stromverbrauch von Embedded Displays zu optimieren. Erst deutlich später kam jemand bei NV auf die Idee dass man damit die lästigen Einschränkungen mit Vsync vs Tearing ebenfalls lösen kann.
Hier hat nun irgendwann Mal jemand die mögliche BAR Größe auf >4GB gesetzt. Wahrscheinlich weil man an Server mit deutlich mehr PCIe Geräten gedacht hat die man sonst garnicht mehr hätte erreichen können. In dem Fall kam dann bei AMD als erstes jemand auf die Idee dass das die Datenübertragung zwischen CPU und GPU ebenfalls signifikant beschleunigen könnte.
Nvidia muss jetzt auch eigene Prozessoren bauen!

AMD und Intel machen das bereits. Also wird Nvidia bald alleine dastehen.
Sie haben ja auch nur gerade den Designer der am weitesten verbreiteten Prozessorfamilie überhaupt gekauft...
 

pgcandre

Komplett-PC-Aufrüster(in)
Ich lese hier Teilweise Kommentare die sich anscheinend überhaupt nicht auskennen. Nvidia Verdammt als Marktführer ?Würde man einfach mal die Nvidia Seite gehen merkt man sehr schnell das Grafikkarten nicht das Kerngeschäft sind. Eher so an dritter Stelle. Nvidia baut Riesige Server für Rechenzentren.( Google , Facebook, Youtube). Und das seit einiger Zeit sogar mit AMD CPU. Dann wird an Software für KI gesteuerte Fahrzeuge gearbeitet. Darunter viele der großen Europäischen Auto Hersteller. Ab 2022 soll Hyundai in Europa damit ausgerüstet werden. Weitere folgen. Wer jetzt noch denkt, die machen das meiste Geld mit Grafikkarten liegt verkehrt. Das Nvidia schon länger an einer Smart Access Memory Lösung arbeitet ist aber gut. War aber auch bei mir in Vergessenheit geraten. Danke an AMD für das wach rütteln bei Nvidia.
 

4thVariety

Software-Overclocker(in)
Ich lese hier Teilweise Kommentare die sich anscheinend überhaupt nicht auskennen. Nvidia Verdammt als Marktführer ?Würde man einfach mal die Nvidia Seite gehen merkt man sehr schnell das Grafikkarten nicht das Kerngeschäft sind.

Man sollte die Wichtigkeit der Unternehmensbereiche schon aus dem Finanzbericht ableiten, nicht an der Webseite.

Nvidia Finanzbericht für das Jahr 2020:

Seite 178 im PDF(= 68 des Berichts) , Oben: Einnahmen nach Sektoren:

Gaming 50,5%
Profi Visualisierung: 11,1%
Datencenter: 27,3%
Automobil: 6,4%
OEM & Andere: 4,6%
(0,1% Rundungsdifferenz beim Umrechnen aus Geldbeträgen).

Im PDF sollte man auch ab Seite 122 lesen, dort listet der Bericht die Risikofaktoren für Nvidia. Vieles kann man sich denken, andere DInge sind überraschend. So gefällt es Nvidia nicht, dass 11% vom Gesamtumsatz durch Verkäufe von Chips an Dell erzielt werden.
 

pgcandre

Komplett-PC-Aufrüster(in)
Man sollte die Wichtigkeit der Unternehmensbereiche schon aus dem Finanzbericht ableiten, nicht an der Webseite.

Nvidia Finanzbericht für das Jahr 2020:

Seite 178 im PDF(= 68 des Berichts) , Oben: Einnahmen nach Sektoren:

Gaming 50,5%
Profi Visualisierung: 11,1%
Datencenter: 27,3%
Automobil: 6,4%
OEM & Andere: 4,6%
(0,1% Rundungsdifferenz beim Umrechnen aus Geldbeträgen).

Im PDF sollte man auch ab Seite 122 lesen, dort listet der Bericht die Risikofaktoren für Nvidia. Vieles kann man sich denken, andere DInge sind überraschend. So gefällt es Nvidia nicht, dass 11% vom Gesamtumsatz durch Verkäufe von Chips an Dell erzielt werden.
Danke dafür. Hätte ich jetzt nicht gedacht. Aber da sieht man auch wie gut Nvidia aufgestellt ist. Und ein Verlust im GPU Bereich könnten sie gut kompensieren. Aber damit haben die momentan denke ich eher weniger zu tun.
 
G

Grestorn

Guest
Und jetzt komm ich mit einer vielleicht für viele überraschenden Meinung:

Es kann (auch für NVidia) nichts besseres passieren, als dass sie im GPU Markt unter Druck geraten. Auch wenn die Firma *immer* versucht hat, mit neuen Technologien den Markt voranzutreiben (siehe RT und DLSS), so hatte ich in den letzten Jahren das Gefühl, dass ihnen der Abstand im dedizierten GPU Markt zu Kopf gestiegen ist und nicht unbedingt vorteilhaft für die Produkte von NVidia insgesamt ist. Eine Alleinherrschaft auf dem Markt führt zum Intel-Syndrom: Schlafmützigkeit und Selbstgerechtigkeit.

NVidia wird definitiv einen schmerzhaften Einbruch im Marktanteil bei den dedizierten GPUs erleben. Und AMD einen gewaltigen Aufschwung, jetzt wo gleichzeitig RDNA 2 für Konsolen und PCs rauskommt (wenn ich in Aktien investieren würde, was ich generell nicht mache, weil ich kein "Zockertyp" bin, würde ich mich jetzt in den A... beißen).

Aber ich denke auch, dass das NVidia dazu bewegen wird, die Entwicklungen und Investitionen im GPU Bereich massiv zu verstärken. Und die finanzielle Decke haben sie ja. Und das ist gut für uns Kunden.

Gleichzeitig wird AMD auch wieder mehr Spielraum für eigene Entwicklungen haben. Ich hoffe, dass auch dort das wieder zielführend eingesetzt wird, und man nicht nur ständig auf Third-Party oder OSS Entwicklungen setzt und für sich rebranded. Mit der Ausnahme von Mantle und jetzt evtl. dem InfinityCache, oder was auch immer diese massive Leistungssteigerung von RDNA 2 bringt, kam nichts bahnbrechendes im GPU Sektor in den letzten 2 Jahrzehnten von ATI / AMD. Vielleicht ändert sich das nun...
 

HyperBeast

Freizeitschrauber(in)
Seitens der Community - der teil kam nicht von AMD.


Da haben sie behauptet sie wären offener - nur das FreeSync auch proprietärer ist und auf dem offenen VESA-standard beruht (der wiederum viel von GSync übernommen hatte).



Die Forschung auf den Unis wird auch größtenteils wieder durch die Industrie gesponsort - eines der Sachen bei denen Nvidia wirklich sehr viel tut.



Jetzt muss AMD halt auch mal nachziehen und nicht nur heiße Luft beim marketing verbreiten sondern wirklich mal offene Standards unterstützen - stat ständig nur zu behaupten für OpenSource zu sein und dann nichts betragen.


Und AMD nicht? Die APIs gibt es bei Nvidia schon seit mehreren Jahren dafür - aber hey, so lange man sinnfrei bashen kann - lass dich nicht durch die Realität ablenken.


G-Sync - als es noch nichts anderes gab und Nvidia dann auf eigene Hand etwas entwickelt hat das dann als Grundkonzept für den späteren freien Standard verwendet wurde - das dann AMD für ihr eigenens proprietäres "Free"sync verwendet hat?
PhysX - seit jeher für jeden zu verwenden und seit langer Zeit vollkommen Quelloffen - die Basis vieler Physik-Engines und mit sehr gutem SDK und Support.... jaja, so schlimm das sie da ganze libraries frei zur Verfügung stellen.
Und Raytracing - so halbgar das Nvidia da die Standard-APIs unterstützt, duzende Forschungsprojekte finanziert, Herausgeber von hunderten Papers zu effizeinteren Algorithmen für RayTracing ist - jaja, wie schlecht von ihnen. Da sollten wir viel lieber FireRays verwenden - kein Support, specs die sich ständig ändern, dann wieder Funktionen die einfach so gestrichen werden... das ist natürlich viel besser !?!?

G-Sync war mal wieder eine Technik die sich bis heute nicht durchgesetzt hat, da es praktisch kaum sinnvolle Monitore gab, die die Technik verbaut hatten, mal abgesehen von den völlig überzogenen Preisen.

G-Sync Compatible läuft absolut unrund mit meiner GTX 1080, alleine das uralte Treibermenü das 3 Minuten benötigt beim Start, ist eigentlich ein Armutszeugnis.

PhysX hat sich bis heute nicht durchgesetzt wurde aber gegen AMD angepriesen und wird auch mal wieder nicht weiterentwickelt.

Raytracing ist die nächste Technik die angepriesen wird, bisher aber auch wie Freesync eigentlich nur durch AMD in den eigentlichen Markt gepresst wird, da die Konsolen tatsächlich Raytracing darstellen können, die RTX 3070 für 600€ !!! hat jetzt schon zu wenig RAM und schafft die wenigstens Spiele in halbwegs brauchbaren FPS.

Meine Tochter kann nicht mal Minecraft mit Raytracing spielen, dafür benötigt man eine 700€+ Grafikkarte die aktuell mal wieder nicht verfügbar ist.

Tolle Techniken, sobald AMD ähnliche Sachen im Markt durchgedrückt hat und Nvidia keinen überzogenen Gewinn an der Technik einfährt, wird das ganze fallen gelassen wie eine heiße Kartoffel, das ist meine Kritik und deshalb ist der Laden maximal unsympathisch.

PhysX hat es ja nichtmal ins Mafia 1 Remake geschafft, das zeigt doch wie engagiert Nvidia bei der Technik ist. Die 40"+ TV's bekommen Freesync für die Konsolen, bei Nvidia kosten die abgespeckten TV's mit G-Sync Technik hohe 4 stellige Summen.
 

Casurin

BIOS-Overclocker(in)
PhysX hat sich bis heute nicht durchgesetzt wurde aber gegen AMD angepriesen und wird auch mal wieder nicht weiterentwickelt.
Immerwieder lustig wie so viel Unfug behauptet werden kann. jaja, überhaupt nicht verbreitet oder weiterentwickelt -ist nur die basis der Physik von sowas wie zB UnrealEngine.
Raytracing ist die nächste Technik die angepriesen wird, bisher aber auch wie Freesync eigentlich nur durch AMD in den eigentlichen Markt gepresst wird, da die Konsolen tatsächlich Raytracing darstellen können, die RTX 3070 für 600€ !!! hat jetzt schon zu wenig RAM und schafft die wenigstens Spiele in halbwegs brauchbaren FPS.
Aha, AMD ist besser weil sie es.... 1 Jahr später ohne Verbesserungen auf den Markt bringen? :hail:
 

PCGH_Torsten

Redaktion
Teammitglied
Warum soltle man das "offener" anzweifeln? Die Funktionalität ist schlicht Bestandteil der offiziellen PCIe-Spezifikation.

Nvidia kann jedenfalls schlecht eine hauseigene Plattform voraussetzen...
Allerdings sind optionale Erweiterungen in den PCI-E-Spezifikationen nur schwer einseitig einzusetzen. Abwarten.


Kann bei SAM die CPU nicht auch auf den Cache der GPU zugreifen?

Vielleicht für APUs, aber für dedizierte GPUs ist das sinnlos, da die Zugriffe sowieso über den IOD gehen, der L3 als write through betrieben wird und sowieso kaum Daten in den Cache passen.
 
T

tokthora

Guest
nichts bahnbrechendes im GPU Sektor in den letzten 2 Jahrzehnten von ATI / AMD.
Ich erinnere mich an VLIW und GCN1 und GCN3 (VRAM 970), die Nvidia das fürchten lernten. Oder eine Vega Frontier für unter 1k, die sich für professionelle Zwecke eignete, genauso wie Vega20, wobei Nvidia treibertechnisch nachzog.

Die wirkliche Oberhand erlangte man eigentlich damals nie, Nvidia profitierte vom legendären G80 und im zuletzt Cryptoboom (Lieferschwiergkeiten bei AMD), den abgedrehten Preisen die bis heute existieren. Keine Ahnung wo Du die letzten 20 Jahre warst.
Nvidia kann jedenfalls schlecht eine hauseigene Plattform voraussetzen...
Die haben sie, aber keine validierte für den Gamersupport. Zudem fehlt ihnen die Hardwarebeschleunigung. Das reine Erweitern der Register in der Ressourcenverwaltung erfolgt nicht dynamisch. Allociert ist optional nicht mehr abrufbar für andere Prozesse.
 
Zuletzt bearbeitet von einem Moderator:

Pleasedontkillme

Software-Overclocker(in)
Immerwieder lustig wie so viel Unfug behauptet werden kann. jaja, überhaupt nicht verbreitet oder weiterentwickelt -ist nur die basis der Physik von sowas wie zB UnrealEngine.

Aha, AMD ist besser weil sie es.... 1 Jahr später ohne Verbesserungen auf den Markt bringen? :hail:
Verzeih aber @HyperBeast hat absolut Recht in beiden Fällen.

PhysiX läuft wohl nur noch auf CPU (in Anwendung der letzten Jahren) und deswegen hat man sogar Mehrkernsupport geliefert. Ausserd du meinst das mit Weiterentwicklung (siehe auch Witcher3 Hairworks)?

Und Raytracing Tech ist bis jetzt, ein ganz klarer, undiskutabler Flopp!
Tatsächlich dank Konsolen der letzten AMD Generation könnte die Marktdurchdringung gelingen. Auch weil RT tatsächlich effizienter/performanter läuft im Vergleich mit der "Leistungsschwäche" einer Konsole, mal abgesehen vom Preisvergleich.


Meiner persönliche Meinung nach ist PhysiX jedoch kein genereller Flopp, wurde es nur leider während seiner Glanzzeit von NVidia künstilich zurückgehalten und konnte gleichzeitig die Versprechungen alte NV Hardware als zweit PhysiX-Beschleuniger zu nutzen und auch eine neue Physik-Spiele-Era ein zu leiten nicht gerecht werden.
Folglich wurde ich als Käufer mit meiner "alten" 3Jahre 9800GT betrogen. -> erfolgreich eine GPU angedreht is per def. ein Erfolg!

Heute stellt sich raus, über CPU läuft es praktisch gleich gut (meiner Erfahrung nach besser) nach der CPU Ausrichtung und beispielsweise werden einige Effect praktisch leistungstechnisch gratis geliefert, wie Kleider Simulation.
Das gefällt mir und finde ich eine imponierende Leistung.
Noch zum Thema.

Wie immer grosse Töne von NVidia

Den direkt Zugriff für die CPU, mit welcher wollen die das anstellen?
Mit VIA oder dem neuen China Böller-CPU?

Intel will selbst GPUs raus bringen nächstes Jahr.

Hier hat jemand nichts in der Hand, also besste Voraussetzungen mir ein Staunen zu entlocken.
Siehe auch


Und letztlich hat AMD hier den selben Stunt gemacht, wie bei Freesync schon: Einen offenen Standard als ihr "Eigengewächs" verkauft.

Macht sich im Marketing gut und kostet keinen Euro in der Entwicklung.

Aber NVidia sind ja die bösen, weil sie aber-Millionen in die Entwicklung ihrer proprietären Techniken stecken.
Verzeihung aber, FreeSync ist ein AMD Ding!
Es war auch Ihr Idee einen offenen bestehenden Standard zu nehmen, nennen wir es mal VRR, und es anstatt wie im Mobile Segment angedacht nur mit einem Bild pro Secunde Ausgabe um Strom zu sparen, als Konter für GSync zu nutzen.
GENIAL!

Danke AMD, VRR für alle!!
(obwohl NV noch etwas getrötzelt hat, sind die jetzt endlich auch im selben Boot, ...Kinder!?)

Nachtrag:https://en.wikipedia.org/wiki/Variable_refresh_rate
 
Zuletzt bearbeitet:

HyperBeast

Freizeitschrauber(in)
Immerwieder lustig wie so viel Unfug behauptet werden kann. jaja, überhaupt nicht verbreitet oder weiterentwickelt -ist nur die basis der Physik von sowas wie zB UnrealEngine.

Aha, AMD ist besser weil sie es.... 1 Jahr später ohne Verbesserungen auf den Markt bringen? :hail:

Anstatt mit sowas wie Unreal Engine zu reagieren nenne mir bitte drei konkrete Titel der letzten 6 Monate die effektiv PhysX nutzen.

AMD ist nicht besser sondern mal wieder die Firma die die Technik für die Masse im Markt nutzbar macht.

Grundsätzlich muss man hier differenzieren, ich sage nicht Gut oder Böse, mir ist aktuell Nvidia persönlich unsympathisch wegen oben genannter Gründe, das spiegelt aber nur meine Meinung dar. Nvidia war technisch auch sehr oft Vorreiter, man denke an die ersten Stalker Videos mit der 5800 Ultra Karte. Aber die letzte Era zeichnet sich eher negativ ab. Das zeigt letztlich nur wie aggressiv die Firmen mittlerweile gegeneinander vorgehen.
 

HyperBeast

Freizeitschrauber(in)
Achso - also ALLE spiele die Physik von UnrealEngine verwenden zählen auf einmal nichtmehr? XD

Zeig mir doch einfach die Titel die die PhysX Komponente ausreizen. Wüsste nicht, dass sich Spiele aus der Unreal Engine so massiv von der Havok Engine absetzen.

Welche Titel nutzen die Physik denn ordentlich aus ? Gibts da gute Beispiele ?
 

Casurin

BIOS-Overclocker(in)
Zeig mir doch einfach die Titel die die PhysX Komponente ausreizen. Wüsste nicht, dass sich Spiele aus der Unreal Engine so massiv von der Havok Engine absetzen.

Welche Titel nutzen die Physik denn ordentlich aus ? Gibts da gute Beispiele ?
Hab ich nie behauptet - nur DU warst es der behauptet das PhysX sich weder durchgesetzt hat noch weiterentwickelt wurde - beides leere Behauptungen ohne jeglichen beleg - und jetzt auf einmal möchtest du wieder etwas anderes behaupten weil - oh ja, weil du weist das du gelogen hast und deine Behauptungen entsprechend nicht belegen kannst.
 
Oben Unten