• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

NVIDIA Ampere Laberthread

Duvar

Kokü-Junkie (m/w)
Hier mal eine frische News im Anhang.

Bonus Video 3080 UV
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Anhänge

  • 3090.png
    3090.png
    24,3 KB · Aufrufe: 78

sLiX

Komplett-PC-Käufer(in)
4k muss bei mir min 80-90 fps haben ( oled + gamepad )

Ansonsten halt WQHD 165 hz dauerhaft wären schön

Bei CS oder sonstigen kompetitiven Spielen gehe ich da mit. Aber bei Singleplayerspielen wie Assassins Creed oder Witcher genügen auch auf einem WQHD 144HZ Bildschirm 80-90FPS mehr als dicke. Ich sehe da kaum bis gar keinen Unterschied zu 120/144FPS.
 

RawMangoJuli

Volt-Modder(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

da werden die ganzen normalen Reviewer wohl etwas angepisst sein xD
 

RawMangoJuli

Volt-Modder(in)
Linus darf auch schon

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

ChrisMK72

PCGH-Community-Veteran(in)
Ich meine im ersten Video rausgehört zu haben(im letzten Abschnitt), dass er doch höhere fps bevorzugt. Genau wie ich. :D

1440p läuft halt fluffiger. :)

Aber ansonsten natürlich schon interessant, was da technisch langsam möglich ist.
Fand das Video schon gut gemacht und interessant.
Jetzt gleich das nächste von Linus gucken. ;)

edit: Crank.
Also Linus hat ja dank Nvidia nochmal ein drauf gesetzt. Das war schon heftig, was Technik angeht. Übertreiber TV für 30k ? :what:

Naja ... aber bestärkt mich, dass ich für mich genau richtig liege, mit nativ 1440p, wo die auch von hochrechnen, für 8k, damit's flüssig läuft.
Die haben aber nur 60 fps.
Ich hab dann eher 100 gelockt. :D
Und sieht auch nich shice aus, auf 32".

Eher mein Ding.
Aber jeder wie er mag.
Schön, dass es Möglichkeiten gibt.

Die 3090 is eigentlich auch Crank.
Schöne Technik.
Aber für das Plus an Leistung mir n Tick zu viel des Guten. ;)
 
Zuletzt bearbeitet:
M

Metamorph83

Guest
Ich meine im ersten Video rausgehört zu haben(im letzten Abschnitt), dass er doch höhere fps bevorzugt. Genau wie ich. :D

1440p läuft halt fluffiger. :)

Aber ansonsten natürlich schon interessant, was da technisch langsam möglich ist.
Fand das Video schon gut gemacht und interessant.
Jetzt gleich das nächste von Linus gucken. ;)

edit: Crank.
Also Linus hat ja dank Nvidia nochmal ein drauf gesetzt. Das war schon heftig, was Technik angeht. Übertreiber TV für 30k ? :what:

Naja ... aber bestärkt mich, dass ich für mich genau richtig liege, mit nativ 1440p, wo die auch von hochrechnen, für 8k, damit's flüssig läuft.
Die haben aber nur 60 fps.
Ich hab dann eher 100 gelockt. :D
Und sieht auch nich shice aus, auf 32".

Eher mein Ding.
Aber jeder wie er mag.
Schön, dass es Möglichkeiten gibt.

Die 3090 is eigentlich auch Crank.
Schöne Technik.
Aber für das Plus an Leistung mir n Tick zu viel des Guten. ;)

Mich beeindruckt DLSS, von 1440p auf 8K hochskaliert und trotzdem so scharfe Texturen... Aber noch ist es für mich nicht soweit, ich Wechsel erst auf 4k/8k wenn auch die rechen Leistung im schnitt für 100Hz/FPS reicht..
 

ChrisMK72

PCGH-Community-Veteran(in)
... plus das Ganze auch noch relativ entspannt bezahlbar ist und es natürlich auch gute Preis-/Leistungsmonitore in dem Bereich gibt, die man tatsächlich auch kaufen möchte. :)
 
M

Metamorph83

Guest
Ich will G-Sync/freesync und 100 Hz+ nicht mehr missen. Ab 80+ bin ich zufrieden... Hatte bis vor 2 Jahren einen 4K Moni mit 60 Hz, war schön, aber immer Details runterschrauben, jede Gen das Top Modell kaufen war bissel uncool. Seit dem ich wieder zurück auf 1440p bin inkl. Sync und mehr als 60 Hz, will ich auch nicht wieder zurück...
 

Gurdi

Kokü-Junkie (m/w)
Ich versteh auch nicht warum alle immer das aufs neue überraschend finden.
Das der Launch so läuft war absolut klar,zudem haben wir die Miner wieder im Markt derzeit.
Entwederbuy on relase oder warten bis die Nachfrage abflacht. Die 2080Ti hatte auch ne bescheidene Verfügbarkeit,die VII ebenso,die Vega Karten usw. usw.

Die Preise die einembereits für eine 3080 gezahlt werden nur damit man das Teil2-3Wochen früher im Rechner hat sind absolut absurd.
 

ChrisMK72

PCGH-Community-Veteran(in)
Die Preise die einembereits für eine 3080 gezahlt werden nur damit man das Teil2-3Wochen früher im Rechner hat sind absolut absurd.

Vor allem, wenn man bei der 80er mal schaut, wie gut bereits so manches "entry-level" Modell ist, nicht nur, aber auch von Asus.
Das hätte ich nich erwartet, von der Qualität her. Bin da positiv überrascht und werd diesmal die Strix wohl nicht vermissen.

Da musste Asus den Ruf diesmal wohl wieder etwas mehr nach oben pushen, wie's aussieht.
Gut, falls man eine kriegt. :)
 

Realchicken

PC-Selbstbauer(in)
Bei CS oder sonstigen kompetitiven Spielen gehe ich da mit. Aber bei Singleplayerspielen wie Assassins Creed oder Witcher genügen auch auf einem WQHD 144HZ Bildschirm 80-90FPS mehr als dicke. Ich sehe da kaum bis gar keinen Unterschied zu 120/144FPS.

Ich empfinde bei WQHD mit Maus und Tastatur leider unter 90-100 fps als nicht mehr smooth genug beim umschauen :-(

60 hz / fps wird dann fürs Auge und beim umschauen unangenehm.

Schon strange wie nur 20 fps mehr das optische Problem bei mir beseitigen.
 

wari

Software-Overclocker(in)
Dass die RTX 3090 laut Leaks aktuell wohl nur knapp 10% mehr Leistung bietet, bestätigt ja die Vermutung, dass sich die Karte mit ihrem völlig überdimensioniertem VRAM primär gar nicht an Gamer richtet.. Aber Ich wünsche allen Ultra- Enthusiasten viel Spaß beim Geld ausgeben und zocken von Zero Dawn mit ordentlich Ram-Puffer, immerhin gut fürs Gefühl.


Würde man jetzt die Lücke zwischen 80er und 90er mit einer 3080TI/Super mit mehr Ram schließen, würde das wiederum Leistungstechnisch keinen Sinn machen, weil man dann ja so schnell wie die 3090 wäre, oder nur paar % schneller als die 3080, sofern die Leaks stimmen. Aber gibt glaub immer nur genug Hardwareexperten die denken, mehr VRAM würde auch automatisch mehr Leistung bedeuten.

Aber das sind dann vermutlich auch die, die denken, dass ein belegter VRAM immer bedeutet, dass der VRAM am Limit arbeitet und die GPU dann nicht mehr zukunftssicher ist, da weiß man dann ja direkt, "wo die Reise in Zukunft hingeht".
 

Maggolos

PC-Selbstbauer(in)
ZOTAC.JPG
Für die Amazonier :) Wer bis 16:00 geordert hat, sollte eine hohe Chance haben, dass in den nächsten 7 Tage eine Versandnachricht erscheint.
 

Gurdi

Kokü-Junkie (m/w)
Ich verstehe nicht warum du das direkt wieder irgendwie negativ auslegen möchtest. Es ist nun mal schlicht ein Lieferproblem vorhanden derzeit. Da kann NV aber wenig zu, ein Paperlaunch war das nicht, ich hab die Paletten gesehen.
 

RavionHD

PCGH-Community-Veteran(in)
RTX 3080 20GB und RTX 3070ti 16GB wurden bestätigt:

Angeblich 899$ für die RTX 3080 20GB.


Anhang anzeigen 1334306Für die Amazonier :) Wer bis 16:00 geordert hat, sollte eine hohe Chance haben, dass in den nächsten 7 Tage eine Versandnachricht erscheint.
Cool, habe um 15:55 bestellt.:D
 

OmasHighendPC

Komplett-PC-Aufrüster(in)
Ich will G-Sync/freesync und 100 Hz+ nicht mehr missen. Ab 80+ bin ich zufrieden... Hatte bis vor 2 Jahren einen 4K Moni mit 60 Hz, war schön, aber immer Details runterschrauben, jede Gen das Top Modell kaufen war bissel uncool. Seit dem ich wieder zurück auf 1440p bin inkl. Sync und mehr als 60 Hz, will ich auch nicht wieder zurück...

mehr als 1440p macht für mich gar keinen Sinn, da ich (bald 60) die Sachen sowieso immer weniger scharf sehe, auch mit Brille :ugly:
 

RavionHD

PCGH-Community-Veteran(in)
Aktuell Preisempfehlung von NV 699$ und du bekommst sie ab 799€ aufwärts. ;-) Was meinst du welche Preise dann rauskommen bei NV 899$? :ugly:
Ich habe 2 bestellt, einmal um 723 Euro (Zotac), einmal um 769 Euro (Asus TUF). Und die UVP in Österreich liegt bei 719 Euro.
Heißt die Base Custommodelle der RTX 3080 20GB dürften sich zwischen 900-1000 Euro bewegen.
 

Lios Nudin

BIOS-Overclocker(in)
RTX 3080 20GB und RTX 3070ti 16GB wurden bestätigt:

Angeblich 899$ für die RTX 3080 20GB.



Cool, habe um 15:55 bestellt.:D

Nach der Präsentationsfolie wird die 3070Ti zwischen der 2080Ti und 3080 eingeordnet, mit einer klaren Tendenz zur 2080Ti und einem dicken 16GB Speicherpolster für 599$ (???). Der Zugewinn zu einer 1080Ti / 2070S wäre hier auch noch ordentlich.

Sollte das so kommen wird die Karte für meine Kaufentscheidung der Gegenpart zum BigNavi Angebot.

Mit den paar Tagen Abstand zur Präsentation der 3080 sind mir die vermuteten 899$ für die 3080 20GB einfach zu viel. Nicht weil sie es im Vergleich zu den anderen vorhandenen Karten nicht Wert wäre, sondern weil mir die 899$ inzwischen einfach generall eine Nummer zu groß sind. Ein 130-150€ Wasserkühler kommt ja auch noch dazu.
 

-Shorty-

Volt-Modder(in)
Mit den paar Tagen Abstand zur Präsentation der 3080 sind mir die vermuteten 899$ für die 3080 20GB einfach zu viel. Nicht weil sie es im Vergleich zu den anderen vorhandenen Karten nicht Wert wäre, sondern weil mir die 899$ inzwischen einfach generall eine Nummer zu groß sind. Ein 130-150€ Wasserkühler kommt ja auch noch dazu.

Ich denke, diese Größenordnung war zu erwarten und solang die Karten letztlich nicht jenseits der 1200€ gehandelt werden passt das schon. Ich befürchte aber, dass sich trotzdem einige Hersteller dazu hinreißen lassen und diese Modelle künstlich dermaßen aufblasen, dass der Abstand zur 3090 am Ende gar nicht so groß ist.
 

Gurdi

Kokü-Junkie (m/w)
Die beiden Varainten werden sich schlussendlich gegenseitig in der Wage halten denke ich, eine 10GB Karte mit der selben Leistung kann nicht viel günstiger sein als eine 20GB Karte bzw.anders herum.
 

Duvar

Kokü-Junkie (m/w)
Ich will G-Sync/freesync und 100 Hz+ nicht mehr missen. Ab 80+ bin ich zufrieden... Hatte bis vor 2 Jahren einen 4K Moni mit 60 Hz, war schön, aber immer Details runterschrauben, jede Gen das Top Modell kaufen war bissel uncool. Seit dem ich wieder zurück auf 1440p bin inkl. Sync und mehr als 60 Hz, will ich auch nicht wieder zurück...
Geht mir genauso, hab seit locker 6 Jahren nur auf 4k (bzw UHD) 60Hz gezockt. War zunächst ein 4k Dell Monitor in 24 Zoll (ja viel zu klein), später dann 43 Zoll TV mit HDR und mittlerweile auf 3440x1440 mit nativ 100Hz+Gsync (übertaktbar auf 115Hz) und ja man merkt definitiv den Unterschied. Habe mir auch gedacht wie konnte ich nur solange @ 60Hz zocken? Nichtsdestotrotz bin ich nicht voll zufrieden mit dem Monitor, aber das ist eine andere Story.
Nun mal zur 3090, alta was das für ein Brocken ist gell? Damit kannste ja einen erschlagen, ein richtiger Oger von Karte.
Schön für jene die das nötige Kleingeld dafür investieren, verglichen mit den Titan Preisen oder der 2080Ti ist der Preis ok, aber verglichen mit der 3080 ein No Go. Die 3080 20GB Version oder 3070 Super 16GB sind wohl the way to go für Nvidia Käufer, falls AMD nix bringt wären diese Karten auf meinem Radar.
 

HisN

Kokü-Junkie (m/w)
Der Afterburner hat ja vor ein paar Tagen ein Update bekommen, und es gibt zwei kleine Änderungen in der VRAM- Beobachtung.
Zusätzlich zur globalen VRAM-Belegung kann der Afterburner jetzt auch eine VRAM-Belegung per Prozess überwachen. D.h. er zeigt zusätzlich an, wie viel der generellen VRAM-Usage jetzt von einem einzelnen Prozess verursacht wird.

Das erleichert die allgemeine Betrachtung, wenn man so möchte.

1600857004083.png


ffxv_s_2020_09_23_09_26j7f.jpg


Nicht dass das beim Spitzenreiter was ändern würde^^
modernwarfare_2020_091jknm.jpg



Wir können also die Betrachtung vom genutzten VRAM "verbessern".

Unwinder stellt dabei auch klar, was die Sensoren anzeigen.

I forgot to document one more tiny but interesting feature of recently published 4.6.3 beta 2. GPU.dll monitoring plugin was upgraded and received 2 new performance counters: “GPU dedicated memory \ process” and “GPU shared memory \ process”, so you may give it a try. The counters are displaying local and non-local VRAM commits for foreground process, so you may use them to see how much VRAM is allocated by the game you’re currently playing and compare it with total system-wide VRAM usage. The counters were added to help you to compare apples to apples and oranges to oranges, because recently there was rather interesting post @ resetera (https://www.resetera.com/threads/vra...enough.280976/) dedicated to VRAM usage measurement. While it contains a few true statements, it also contains good porting of misunderstanding and false claims and in result it confuses readers even more. So the post claims that:

- Games use less VRAM than you see in GPU-Z, MSI AB, Precision, HwInfo etc. That’s correct statement. Games run in multitasking environment. Games do not own whole VRAM exclusively, it is shared between all running processes in the system. Even before you start your game, standard background applications of almost every modern PC like Steam, internet browsers, background video streaming/recording applications and even OS itself (e.g. DWM aka Desktop Windows Manager, OS component responsible for hardware accelerated desktop windows rendering) eat from few hundred megabytes to few gigabytes of VRAM. All that dedicated VRAM consumed by background processes also counts and displayed in total VRAM usage in tools mentioned above. Total dedicated VRAM minus VRAM consumed by all background processes form VRAM budget for a game, i.e. amount of VRAM the game can commit and use without causing VRAM evictions for other processes and degrading system performance. The budget is expected to be less (sometimes few gigabytes less) than total amount of VRAM installed on your graphics card.

- Misleading applications like GPU-Z, MSI AB, Precision, HwInfo display absolutely useless VRAM allocation value opposing to the only real usage reported by budget API and displayed by Special K. That’s false statement. First, there is no any “allocated VRAM” versus “real VRAM usage”. Real usage he is referencing is also nothing but exactly the same allocation, i.e VRAM commit but in context of single game process. Any form of VRAM usage monitoring (including the “real” one based on DXGI budget monitoring) is displaying you current amount of commited/allocated VRAM. DXGI budget monitoring API was added by Microsoft to help 3D application developers to avoid overcommiting VRAM. So it is just giving you your current VRAM commit limit (budget) and allows you to track how much you’ve already commited. While it is _extremely_ useful performance counter for a developer on game development stage, it doesn’t allow you to see whole system picture when your profile whole system performance, doesn’t allow you to see how much VRAM other applications commited, how much of this total commited VRAM is currently resident in local VRAM and how close to physical VRAM limit (and VRAM eviction related stuttering) we’re. So those are nothing but VRAM commits displayed on different (game/system) levels and both are useful.

New performance counters (“GPU dedicated memory \ process” and “GPU shared memory \ process” exported by GPU.dll plugin) just allow you to see this “real usage” (application specific VRAM commit in reality). But instead of using in-process DXGI budget API it uses more low-level and advanced D3DKMT API, which allows to peek into process specific D3D performance counters from different processes. Due to that reason new “GPU dedicated memory \ process” and “GPU shared memory \ process” are currently not supported for EAC/BattleEye protected games (as they require opening game process from external application, such request won't work for EAC/BE protected games). Here is the example of using new performance counters in MSFS 2020:

View attachment 1987

The first one in RTSS “Mem” line, 5290MB, is a total amount of VRAM commited by display driver + all running processes and residing in local videomemory. It is MSI AB’s built in “Memory usage” performance counter taking data from NVAPI on NVIDIA GPU (on AMD GPUs native VRAM monitoring is not exposed by their API so it is read via D3DKMT by MSI AB and matches with the second performance counter). The second one in RTSS “Mem” line, 5125MB, is total amount of VRAM commited by all running processes and residing in local videomemory. Unlike the first one, it doesn’t include internal display driver’s VRAM allocations. So it is expected to be a couple hundred megabytes lower. It is reported by “GPU dedicated memory usage” counter exported by GPU.dll plugin and comes from D3DKMT. The third one, 3446MB, is VRAM commited by foreground process (i.e. MSFS 2020 game). It comes from "GPU dedicated memory usage \ process" counter exporeted by GPU.dll plugin and duplicates GPU budget usage, displayed by MSFS developer overlay.
 

Maggolos

PC-Selbstbauer(in)
Ich habe 2 bestellt, einmal um 723 Euro (Zotac), einmal um 769 Euro (Asus TUF). Und die UVP in Österreich liegt bei 719 Euro.
Heißt die Base Custommodelle der RTX 3080 20GB dürften sich zwischen 900-1000 Euro bewegen.

Leider kommt jetzt eine Welle von Amazon-Storno-Mails, betrifft wahrscheinlich (fast) alle.
 

Duvar

Kokü-Junkie (m/w)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

ChrisMK72

PCGH-Community-Veteran(in)
Also wenn die 3080 20GB wirklich für 900$ FE kommt, würde meine Schätzung ja hinkommen, zwischen 900-1250€, je nach Custom Modell. Es ändert sich somit für mich nix.

Rechne also weiterhin mit Preisen um die ~ 1000€ für die 10GB mehr, wegen etwas aufwändigerem Kühler usw. .
Ob einem das 2-300€ mehr wert is, kann ja jeder selber checken, nach eigenen Bedürfnissen, ob man davon eher mehr(z.B. UHD/Ultra), oder weniger(z.B. WQHD/High) profitieren würde.

Naja ... gibt wenigstens Auswahl für alle.
So gesehen ganz ok.

Man darf auch nicht vergessen: Das sind die Releasepreise !

Die Pascal 1080 is auch um die ~ 750€ gestartet(Custom Modelle).

Später fiel der Preis der immerhin "normalen 80er", so z.B. der Palit Gamerock, als einfacheres Entry level Modell, nach einer gewissen Einführungsphase, nach 5 Monaten bereits um 100€. Später noch weiter.

Man kann ja nach 3080 20GB Start (Ti/Super) nach 6-9 Monaten schon mal nach gebrauchten Modellen, für 5-600€ Ausschau halten.

Ich hab damals meine gebrauchte 1080Ti Strix OC, die 9 Monate alt war, für 570€ gekauft und die dann noch lang über 2 Jahre genutzt, bevor ich sie für um die 450€ vertickt hab, kurz bevor Ampere gelauncht ist.

Also alles in allem sieht die Lage eigentlich recht "normal" aus, außer dass jetzt zu Beginn wirklich recht mickrige Vorratsbestände da waren.
Aber es stimmt schon, dass es egal gewesen wäre, wie viel da war, es wäre einfach alles weggekauft worden, egal wie viel es war.

So gesehen nützt im Grunde für Interessenten nur abwarten, bis die richtig dicken Lieferungen nach und nach eintrudeln und den Markt langsam sättigen.
Kann ne Weile dauern. 1-2 Wochen wird wohl die größte Durststrecke noch dauern. Aber allein dadurch, dass noch die 3090 kommt und BigNavi, wird sich das dann langsam entzerren.

Und einige werden vielleicht doch keine normale "80er" kaufen und ne Ti holen, mit 20GB.
Die Wartezeit lässt einen eh immer weiter Richtung 3080Ti 20GB warten(ob man will, oder nicht ;) ), so lange man keine normale 3080 bekommt.
 

JohnDonSinclair

Kabelverknoter(in)
Hier mal eine frische News im Anhang.

Bonus Video 3080 UV
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Mist. Obwohl ich das jetzt einfach mal stumpf exakt so wie in dem Video nachgemacht habe, funktioniert das bei mir nicht. Games stürzen ziemlich unmotiviert ab.... :(
 
Oben Unten