NVIDIA Ampere Laberthread

Ich verstehe nicht warum du das direkt wieder irgendwie negativ auslegen möchtest. Es ist nun mal schlicht ein Lieferproblem vorhanden derzeit. Da kann NV aber wenig zu, ein Paperlaunch war das nicht, ich hab die Paletten gesehen.
 
RTX 3080 20GB und RTX 3070ti 16GB wurden bestätigt:

Angeblich 899$ für die RTX 3080 20GB.


Anhang anzeigen 1334306Für die Amazonier :) Wer bis 16:00 geordert hat, sollte eine hohe Chance haben, dass in den nächsten 7 Tage eine Versandnachricht erscheint.
Cool, habe um 15:55 bestellt.:D
 
Ich will G-Sync/freesync und 100 Hz+ nicht mehr missen. Ab 80+ bin ich zufrieden... Hatte bis vor 2 Jahren einen 4K Moni mit 60 Hz, war schön, aber immer Details runterschrauben, jede Gen das Top Modell kaufen war bissel uncool. Seit dem ich wieder zurück auf 1440p bin inkl. Sync und mehr als 60 Hz, will ich auch nicht wieder zurück...

mehr als 1440p macht für mich gar keinen Sinn, da ich (bald 60) die Sachen sowieso immer weniger scharf sehe, auch mit Brille :ugly:
 
Aktuell Preisempfehlung von NV 699$ und du bekommst sie ab 799€ aufwärts. ;-) Was meinst du welche Preise dann rauskommen bei NV 899$? :ugly:
Ich habe 2 bestellt, einmal um 723 Euro (Zotac), einmal um 769 Euro (Asus TUF). Und die UVP in Österreich liegt bei 719 Euro.
Heißt die Base Custommodelle der RTX 3080 20GB dürften sich zwischen 900-1000 Euro bewegen.
 
RTX 3080 20GB und RTX 3070ti 16GB wurden bestätigt:

Angeblich 899$ für die RTX 3080 20GB.



Cool, habe um 15:55 bestellt.:D

Nach der Präsentationsfolie wird die 3070Ti zwischen der 2080Ti und 3080 eingeordnet, mit einer klaren Tendenz zur 2080Ti und einem dicken 16GB Speicherpolster für 599$ (???). Der Zugewinn zu einer 1080Ti / 2070S wäre hier auch noch ordentlich.

Sollte das so kommen wird die Karte für meine Kaufentscheidung der Gegenpart zum BigNavi Angebot.

Mit den paar Tagen Abstand zur Präsentation der 3080 sind mir die vermuteten 899$ für die 3080 20GB einfach zu viel. Nicht weil sie es im Vergleich zu den anderen vorhandenen Karten nicht Wert wäre, sondern weil mir die 899$ inzwischen einfach generall eine Nummer zu groß sind. Ein 130-150€ Wasserkühler kommt ja auch noch dazu.
 
Mit den paar Tagen Abstand zur Präsentation der 3080 sind mir die vermuteten 899$ für die 3080 20GB einfach zu viel. Nicht weil sie es im Vergleich zu den anderen vorhandenen Karten nicht Wert wäre, sondern weil mir die 899$ inzwischen einfach generall eine Nummer zu groß sind. Ein 130-150€ Wasserkühler kommt ja auch noch dazu.

Ich denke, diese Größenordnung war zu erwarten und solang die Karten letztlich nicht jenseits der 1200€ gehandelt werden passt das schon. Ich befürchte aber, dass sich trotzdem einige Hersteller dazu hinreißen lassen und diese Modelle künstlich dermaßen aufblasen, dass der Abstand zur 3090 am Ende gar nicht so groß ist.
 
Die beiden Varainten werden sich schlussendlich gegenseitig in der Wage halten denke ich, eine 10GB Karte mit der selben Leistung kann nicht viel günstiger sein als eine 20GB Karte bzw.anders herum.
 
Ich will G-Sync/freesync und 100 Hz+ nicht mehr missen. Ab 80+ bin ich zufrieden... Hatte bis vor 2 Jahren einen 4K Moni mit 60 Hz, war schön, aber immer Details runterschrauben, jede Gen das Top Modell kaufen war bissel uncool. Seit dem ich wieder zurück auf 1440p bin inkl. Sync und mehr als 60 Hz, will ich auch nicht wieder zurück...
Geht mir genauso, hab seit locker 6 Jahren nur auf 4k (bzw UHD) 60Hz gezockt. War zunächst ein 4k Dell Monitor in 24 Zoll (ja viel zu klein), später dann 43 Zoll TV mit HDR und mittlerweile auf 3440x1440 mit nativ 100Hz+Gsync (übertaktbar auf 115Hz) und ja man merkt definitiv den Unterschied. Habe mir auch gedacht wie konnte ich nur solange @ 60Hz zocken? Nichtsdestotrotz bin ich nicht voll zufrieden mit dem Monitor, aber das ist eine andere Story.
Nun mal zur 3090, alta was das für ein Brocken ist gell? Damit kannste ja einen erschlagen, ein richtiger Oger von Karte.
Schön für jene die das nötige Kleingeld dafür investieren, verglichen mit den Titan Preisen oder der 2080Ti ist der Preis ok, aber verglichen mit der 3080 ein No Go. Die 3080 20GB Version oder 3070 Super 16GB sind wohl the way to go für Nvidia Käufer, falls AMD nix bringt wären diese Karten auf meinem Radar.
 
Der Afterburner hat ja vor ein paar Tagen ein Update bekommen, und es gibt zwei kleine Änderungen in der VRAM- Beobachtung.
Zusätzlich zur globalen VRAM-Belegung kann der Afterburner jetzt auch eine VRAM-Belegung per Prozess überwachen. D.h. er zeigt zusätzlich an, wie viel der generellen VRAM-Usage jetzt von einem einzelnen Prozess verursacht wird.

Das erleichert die allgemeine Betrachtung, wenn man so möchte.

1600857004083.png


ffxv_s_2020_09_23_09_26j7f.jpg


Nicht dass das beim Spitzenreiter was ändern würde^^
modernwarfare_2020_091jknm.jpg



Wir können also die Betrachtung vom genutzten VRAM "verbessern".

Unwinder stellt dabei auch klar, was die Sensoren anzeigen.

I forgot to document one more tiny but interesting feature of recently published 4.6.3 beta 2. GPU.dll monitoring plugin was upgraded and received 2 new performance counters: “GPU dedicated memory \ process” and “GPU shared memory \ process”, so you may give it a try. The counters are displaying local and non-local VRAM commits for foreground process, so you may use them to see how much VRAM is allocated by the game you’re currently playing and compare it with total system-wide VRAM usage. The counters were added to help you to compare apples to apples and oranges to oranges, because recently there was rather interesting post @ resetera (https://www.resetera.com/threads/vra...enough.280976/) dedicated to VRAM usage measurement. While it contains a few true statements, it also contains good porting of misunderstanding and false claims and in result it confuses readers even more. So the post claims that:

- Games use less VRAM than you see in GPU-Z, MSI AB, Precision, HwInfo etc. That’s correct statement. Games run in multitasking environment. Games do not own whole VRAM exclusively, it is shared between all running processes in the system. Even before you start your game, standard background applications of almost every modern PC like Steam, internet browsers, background video streaming/recording applications and even OS itself (e.g. DWM aka Desktop Windows Manager, OS component responsible for hardware accelerated desktop windows rendering) eat from few hundred megabytes to few gigabytes of VRAM. All that dedicated VRAM consumed by background processes also counts and displayed in total VRAM usage in tools mentioned above. Total dedicated VRAM minus VRAM consumed by all background processes form VRAM budget for a game, i.e. amount of VRAM the game can commit and use without causing VRAM evictions for other processes and degrading system performance. The budget is expected to be less (sometimes few gigabytes less) than total amount of VRAM installed on your graphics card.

- Misleading applications like GPU-Z, MSI AB, Precision, HwInfo display absolutely useless VRAM allocation value opposing to the only real usage reported by budget API and displayed by Special K. That’s false statement. First, there is no any “allocated VRAM” versus “real VRAM usage”. Real usage he is referencing is also nothing but exactly the same allocation, i.e VRAM commit but in context of single game process. Any form of VRAM usage monitoring (including the “real” one based on DXGI budget monitoring) is displaying you current amount of commited/allocated VRAM. DXGI budget monitoring API was added by Microsoft to help 3D application developers to avoid overcommiting VRAM. So it is just giving you your current VRAM commit limit (budget) and allows you to track how much you’ve already commited. While it is _extremely_ useful performance counter for a developer on game development stage, it doesn’t allow you to see whole system picture when your profile whole system performance, doesn’t allow you to see how much VRAM other applications commited, how much of this total commited VRAM is currently resident in local VRAM and how close to physical VRAM limit (and VRAM eviction related stuttering) we’re. So those are nothing but VRAM commits displayed on different (game/system) levels and both are useful.

New performance counters (“GPU dedicated memory \ process” and “GPU shared memory \ process” exported by GPU.dll plugin) just allow you to see this “real usage” (application specific VRAM commit in reality). But instead of using in-process DXGI budget API it uses more low-level and advanced D3DKMT API, which allows to peek into process specific D3D performance counters from different processes. Due to that reason new “GPU dedicated memory \ process” and “GPU shared memory \ process” are currently not supported for EAC/BattleEye protected games (as they require opening game process from external application, such request won't work for EAC/BE protected games). Here is the example of using new performance counters in MSFS 2020:

View attachment 1987

The first one in RTSS “Mem” line, 5290MB, is a total amount of VRAM commited by display driver + all running processes and residing in local videomemory. It is MSI AB’s built in “Memory usage” performance counter taking data from NVAPI on NVIDIA GPU (on AMD GPUs native VRAM monitoring is not exposed by their API so it is read via D3DKMT by MSI AB and matches with the second performance counter). The second one in RTSS “Mem” line, 5125MB, is total amount of VRAM commited by all running processes and residing in local videomemory. Unlike the first one, it doesn’t include internal display driver’s VRAM allocations. So it is expected to be a couple hundred megabytes lower. It is reported by “GPU dedicated memory usage” counter exported by GPU.dll plugin and comes from D3DKMT. The third one, 3446MB, is VRAM commited by foreground process (i.e. MSFS 2020 game). It comes from "GPU dedicated memory usage \ process" counter exporeted by GPU.dll plugin and duplicates GPU budget usage, displayed by MSFS developer overlay.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Also wenn die 3080 20GB wirklich für 900$ FE kommt, würde meine Schätzung ja hinkommen, zwischen 900-1250€, je nach Custom Modell. Es ändert sich somit für mich nix.

Rechne also weiterhin mit Preisen um die ~ 1000€ für die 10GB mehr, wegen etwas aufwändigerem Kühler usw. .
Ob einem das 2-300€ mehr wert is, kann ja jeder selber checken, nach eigenen Bedürfnissen, ob man davon eher mehr(z.B. UHD/Ultra), oder weniger(z.B. WQHD/High) profitieren würde.

Naja ... gibt wenigstens Auswahl für alle.
So gesehen ganz ok.

Man darf auch nicht vergessen: Das sind die Releasepreise !

Die Pascal 1080 is auch um die ~ 750€ gestartet(Custom Modelle).

Später fiel der Preis der immerhin "normalen 80er", so z.B. der Palit Gamerock, als einfacheres Entry level Modell, nach einer gewissen Einführungsphase, nach 5 Monaten bereits um 100€. Später noch weiter.

Man kann ja nach 3080 20GB Start (Ti/Super) nach 6-9 Monaten schon mal nach gebrauchten Modellen, für 5-600€ Ausschau halten.

Ich hab damals meine gebrauchte 1080Ti Strix OC, die 9 Monate alt war, für 570€ gekauft und die dann noch lang über 2 Jahre genutzt, bevor ich sie für um die 450€ vertickt hab, kurz bevor Ampere gelauncht ist.

Also alles in allem sieht die Lage eigentlich recht "normal" aus, außer dass jetzt zu Beginn wirklich recht mickrige Vorratsbestände da waren.
Aber es stimmt schon, dass es egal gewesen wäre, wie viel da war, es wäre einfach alles weggekauft worden, egal wie viel es war.

So gesehen nützt im Grunde für Interessenten nur abwarten, bis die richtig dicken Lieferungen nach und nach eintrudeln und den Markt langsam sättigen.
Kann ne Weile dauern. 1-2 Wochen wird wohl die größte Durststrecke noch dauern. Aber allein dadurch, dass noch die 3090 kommt und BigNavi, wird sich das dann langsam entzerren.

Und einige werden vielleicht doch keine normale "80er" kaufen und ne Ti holen, mit 20GB.
Die Wartezeit lässt einen eh immer weiter Richtung 3080Ti 20GB warten(ob man will, oder nicht ;) ), so lange man keine normale 3080 bekommt.
 
Hier mal eine frische News im Anhang.

Bonus Video 3080 UV
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mist. Obwohl ich das jetzt einfach mal stumpf exakt so wie in dem Video nachgemacht habe, funktioniert das bei mir nicht. Games stürzen ziemlich unmotiviert ab.... :(
 
Zurück