AMD Smart Access Memory: Nvidia arbeitet wohl an Alternative für Ampere

Seitens der Community - der teil kam nicht von AMD.


Da haben sie behauptet sie wären offener - nur das FreeSync auch proprietärer ist und auf dem offenen VESA-standard beruht (der wiederum viel von GSync übernommen hatte).



Die Forschung auf den Unis wird auch größtenteils wieder durch die Industrie gesponsort - eines der Sachen bei denen Nvidia wirklich sehr viel tut.



Jetzt muss AMD halt auch mal nachziehen und nicht nur heiße Luft beim marketing verbreiten sondern wirklich mal offene Standards unterstützen - stat ständig nur zu behaupten für OpenSource zu sein und dann nichts betragen.


Und AMD nicht? Die APIs gibt es bei Nvidia schon seit mehreren Jahren dafür - aber hey, so lange man sinnfrei bashen kann - lass dich nicht durch die Realität ablenken.


G-Sync - als es noch nichts anderes gab und Nvidia dann auf eigene Hand etwas entwickelt hat das dann als Grundkonzept für den späteren freien Standard verwendet wurde - das dann AMD für ihr eigenens proprietäres "Free"sync verwendet hat?
PhysX - seit jeher für jeden zu verwenden und seit langer Zeit vollkommen Quelloffen - die Basis vieler Physik-Engines und mit sehr gutem SDK und Support.... jaja, so schlimm das sie da ganze libraries frei zur Verfügung stellen.
Und Raytracing - so halbgar das Nvidia da die Standard-APIs unterstützt, duzende Forschungsprojekte finanziert, Herausgeber von hunderten Papers zu effizeinteren Algorithmen für RayTracing ist - jaja, wie schlecht von ihnen. Da sollten wir viel lieber FireRays verwenden - kein Support, specs die sich ständig ändern, dann wieder Funktionen die einfach so gestrichen werden... das ist natürlich viel besser !?!?

G-Sync war mal wieder eine Technik die sich bis heute nicht durchgesetzt hat, da es praktisch kaum sinnvolle Monitore gab, die die Technik verbaut hatten, mal abgesehen von den völlig überzogenen Preisen.

G-Sync Compatible läuft absolut unrund mit meiner GTX 1080, alleine das uralte Treibermenü das 3 Minuten benötigt beim Start, ist eigentlich ein Armutszeugnis.

PhysX hat sich bis heute nicht durchgesetzt wurde aber gegen AMD angepriesen und wird auch mal wieder nicht weiterentwickelt.

Raytracing ist die nächste Technik die angepriesen wird, bisher aber auch wie Freesync eigentlich nur durch AMD in den eigentlichen Markt gepresst wird, da die Konsolen tatsächlich Raytracing darstellen können, die RTX 3070 für 600€ !!! hat jetzt schon zu wenig RAM und schafft die wenigstens Spiele in halbwegs brauchbaren FPS.

Meine Tochter kann nicht mal Minecraft mit Raytracing spielen, dafür benötigt man eine 700€+ Grafikkarte die aktuell mal wieder nicht verfügbar ist.

Tolle Techniken, sobald AMD ähnliche Sachen im Markt durchgedrückt hat und Nvidia keinen überzogenen Gewinn an der Technik einfährt, wird das ganze fallen gelassen wie eine heiße Kartoffel, das ist meine Kritik und deshalb ist der Laden maximal unsympathisch.

PhysX hat es ja nichtmal ins Mafia 1 Remake geschafft, das zeigt doch wie engagiert Nvidia bei der Technik ist. Die 40"+ TV's bekommen Freesync für die Konsolen, bei Nvidia kosten die abgespeckten TV's mit G-Sync Technik hohe 4 stellige Summen.
 
PhysX hat sich bis heute nicht durchgesetzt wurde aber gegen AMD angepriesen und wird auch mal wieder nicht weiterentwickelt.
Immerwieder lustig wie so viel Unfug behauptet werden kann. jaja, überhaupt nicht verbreitet oder weiterentwickelt -ist nur die basis der Physik von sowas wie zB UnrealEngine.
Raytracing ist die nächste Technik die angepriesen wird, bisher aber auch wie Freesync eigentlich nur durch AMD in den eigentlichen Markt gepresst wird, da die Konsolen tatsächlich Raytracing darstellen können, die RTX 3070 für 600€ !!! hat jetzt schon zu wenig RAM und schafft die wenigstens Spiele in halbwegs brauchbaren FPS.
Aha, AMD ist besser weil sie es.... 1 Jahr später ohne Verbesserungen auf den Markt bringen? :hail:
 
Warum soltle man das "offener" anzweifeln? Die Funktionalität ist schlicht Bestandteil der offiziellen PCIe-Spezifikation.

Nvidia kann jedenfalls schlecht eine hauseigene Plattform voraussetzen...
Allerdings sind optionale Erweiterungen in den PCI-E-Spezifikationen nur schwer einseitig einzusetzen. Abwarten.


Kann bei SAM die CPU nicht auch auf den Cache der GPU zugreifen?

Vielleicht für APUs, aber für dedizierte GPUs ist das sinnlos, da die Zugriffe sowieso über den IOD gehen, der L3 als write through betrieben wird und sowieso kaum Daten in den Cache passen.
 
nichts bahnbrechendes im GPU Sektor in den letzten 2 Jahrzehnten von ATI / AMD.
Ich erinnere mich an VLIW und GCN1 und GCN3 (VRAM 970), die Nvidia das fürchten lernten. Oder eine Vega Frontier für unter 1k, die sich für professionelle Zwecke eignete, genauso wie Vega20, wobei Nvidia treibertechnisch nachzog.

Die wirkliche Oberhand erlangte man eigentlich damals nie, Nvidia profitierte vom legendären G80 und im zuletzt Cryptoboom (Lieferschwiergkeiten bei AMD), den abgedrehten Preisen die bis heute existieren. Keine Ahnung wo Du die letzten 20 Jahre warst.
Nvidia kann jedenfalls schlecht eine hauseigene Plattform voraussetzen...
Die haben sie, aber keine validierte für den Gamersupport. Zudem fehlt ihnen die Hardwarebeschleunigung. Das reine Erweitern der Register in der Ressourcenverwaltung erfolgt nicht dynamisch. Allociert ist optional nicht mehr abrufbar für andere Prozesse.
 
Zuletzt bearbeitet von einem Moderator:
Immerwieder lustig wie so viel Unfug behauptet werden kann. jaja, überhaupt nicht verbreitet oder weiterentwickelt -ist nur die basis der Physik von sowas wie zB UnrealEngine.

Aha, AMD ist besser weil sie es.... 1 Jahr später ohne Verbesserungen auf den Markt bringen? :hail:
Verzeih aber @HyperBeast hat absolut Recht in beiden Fällen.

PhysiX läuft wohl nur noch auf CPU (in Anwendung der letzten Jahren) und deswegen hat man sogar Mehrkernsupport geliefert. Ausserd du meinst das mit Weiterentwicklung (siehe auch Witcher3 Hairworks)?

Und Raytracing Tech ist bis jetzt, ein ganz klarer, undiskutabler Flopp!
Tatsächlich dank Konsolen der letzten AMD Generation könnte die Marktdurchdringung gelingen. Auch weil RT tatsächlich effizienter/performanter läuft im Vergleich mit der "Leistungsschwäche" einer Konsole, mal abgesehen vom Preisvergleich.


Meiner persönliche Meinung nach ist PhysiX jedoch kein genereller Flopp, wurde es nur leider während seiner Glanzzeit von NVidia künstilich zurückgehalten und konnte gleichzeitig die Versprechungen alte NV Hardware als zweit PhysiX-Beschleuniger zu nutzen und auch eine neue Physik-Spiele-Era ein zu leiten nicht gerecht werden.
Folglich wurde ich als Käufer mit meiner "alten" 3Jahre 9800GT betrogen. -> erfolgreich eine GPU angedreht is per def. ein Erfolg!

Heute stellt sich raus, über CPU läuft es praktisch gleich gut (meiner Erfahrung nach besser) nach der CPU Ausrichtung und beispielsweise werden einige Effect praktisch leistungstechnisch gratis geliefert, wie Kleider Simulation.
Das gefällt mir und finde ich eine imponierende Leistung.
Noch zum Thema.

Wie immer grosse Töne von NVidia

Den direkt Zugriff für die CPU, mit welcher wollen die das anstellen?
Mit VIA oder dem neuen China Böller-CPU?

Intel will selbst GPUs raus bringen nächstes Jahr.

Hier hat jemand nichts in der Hand, also besste Voraussetzungen mir ein Staunen zu entlocken.
Siehe auch


Und letztlich hat AMD hier den selben Stunt gemacht, wie bei Freesync schon: Einen offenen Standard als ihr "Eigengewächs" verkauft.

Macht sich im Marketing gut und kostet keinen Euro in der Entwicklung.

Aber NVidia sind ja die bösen, weil sie aber-Millionen in die Entwicklung ihrer proprietären Techniken stecken.
Verzeihung aber, FreeSync ist ein AMD Ding!
Es war auch Ihr Idee einen offenen bestehenden Standard zu nehmen, nennen wir es mal VRR, und es anstatt wie im Mobile Segment angedacht nur mit einem Bild pro Secunde Ausgabe um Strom zu sparen, als Konter für GSync zu nutzen.
GENIAL!

Danke AMD, VRR für alle!!
(obwohl NV noch etwas getrötzelt hat, sind die jetzt endlich auch im selben Boot, ...Kinder!?)

Nachtrag:https://en.wikipedia.org/wiki/Variable_refresh_rate
 
Zuletzt bearbeitet:
Immerwieder lustig wie so viel Unfug behauptet werden kann. jaja, überhaupt nicht verbreitet oder weiterentwickelt -ist nur die basis der Physik von sowas wie zB UnrealEngine.

Aha, AMD ist besser weil sie es.... 1 Jahr später ohne Verbesserungen auf den Markt bringen? :hail:

Anstatt mit sowas wie Unreal Engine zu reagieren nenne mir bitte drei konkrete Titel der letzten 6 Monate die effektiv PhysX nutzen.

AMD ist nicht besser sondern mal wieder die Firma die die Technik für die Masse im Markt nutzbar macht.

Grundsätzlich muss man hier differenzieren, ich sage nicht Gut oder Böse, mir ist aktuell Nvidia persönlich unsympathisch wegen oben genannter Gründe, das spiegelt aber nur meine Meinung dar. Nvidia war technisch auch sehr oft Vorreiter, man denke an die ersten Stalker Videos mit der 5800 Ultra Karte. Aber die letzte Era zeichnet sich eher negativ ab. Das zeigt letztlich nur wie aggressiv die Firmen mittlerweile gegeneinander vorgehen.
 
Achso - also ALLE spiele die Physik von UnrealEngine verwenden zählen auf einmal nichtmehr? XD

Zeig mir doch einfach die Titel die die PhysX Komponente ausreizen. Wüsste nicht, dass sich Spiele aus der Unreal Engine so massiv von der Havok Engine absetzen.

Welche Titel nutzen die Physik denn ordentlich aus ? Gibts da gute Beispiele ?
 
Zeig mir doch einfach die Titel die die PhysX Komponente ausreizen. Wüsste nicht, dass sich Spiele aus der Unreal Engine so massiv von der Havok Engine absetzen.

Welche Titel nutzen die Physik denn ordentlich aus ? Gibts da gute Beispiele ?
Hab ich nie behauptet - nur DU warst es der behauptet das PhysX sich weder durchgesetzt hat noch weiterentwickelt wurde - beides leere Behauptungen ohne jeglichen beleg - und jetzt auf einmal möchtest du wieder etwas anderes behaupten weil - oh ja, weil du weist das du gelogen hast und deine Behauptungen entsprechend nicht belegen kannst.
 
Zurück