NVIDIA Ampere Laberthread

PC-King hat noch welche für Mondpreise.:daumen2:

Alternate Outlet Schnäppchen 1 Stück
Unbenannt2.jpg
 
Zuletzt bearbeitet von einem Moderator:
Really? Wo hast du geordert?
Bei Alternate & dort stand direkt in der Rechnung, das keine Codes mehr da sind.
Das Problem ist, das die Grafikarten Entwicklung gerade Hand in Hand, also linear mit den Anforderungen der Games voran schreitet. Kommt eine Gen neuer Grakas die gerade 4k @ 60 FPS High Ultra packt, kommt ein paar Monate später wieder mind. Game, dass die Messlatte nochmal darüber anlegt. Eigentlich müssten die Grakas mal einen Satz von 100% mehr Leistung machen damit, man über 2 Jahre davon was hat.
Einer der Gründe warum ich vor ein paar Jahren auch wieder zurück zu WQHD gegangen bin...
Da kommt ja dann DLSS ins Spiel. Macht für mich bisher einen super Eindruck & sieht teilweise sogar besser als die native Auflösung aus. Damit kann man Raytracing & alle anderen Sachen nutzen ohne die Frames zu stark auszuhebeln.
 
Ist immer wieder reserviert aber immer noch da.
EDIT: und weg.
 
Zuletzt bearbeitet von einem Moderator:
Da kommt ja dann DLSS ins Spiel. Macht für mich bisher einen super Eindruck & sieht teilweise sogar besser als die native Auflösung aus. Damit kann man Raytracing & alle anderen Sachen nutzen ohne die Frames zu stark auszuhebeln.
In Control wars der Hammer, die Frage ist wie weit es Verbreitung findet. Solange kommt kein 4k moni ins haus...
 
Hab mal wieder nen Golden Chip erwischt :)
Die Giga OC ist aber so ne Sache, die brauch einfach mal durchgehend 30Watt mehr als die TUF. Die Spannungsversorgung ist hier qualitativ nicht gut umgesetzt. Auch die 12V Anschlüsse sind ein graus, ein elendes Gefrimmel.

FS Ultra High OC.png

Ansonsten deckt sich die Leistung ziemlich mit der der TUF, passend zum selben Binning.
 

Anhänge

  • Giga 3090 Power.png
    Giga 3090 Power.png
    313,8 KB · Aufrufe: 31
  • TimeSpy High OC.png
    TimeSpy High OC.png
    3,2 MB · Aufrufe: 28
Hab mal wieder nen Golden Chip erwischt :)
Die Giga OC ist aber so ne Sache, die brauch einfach mal durchgehend 30Watt mehr als die TUF. Die Spannungsversorgung ist hier qualitativ nicht gut umgesetzt. Auch die 12V Anschlüsse sind ein graus, ein elendes Gefrimmel.

Anhang anzeigen 1335622
Ansonsten deckt sich die Leistung ziemlich mit der der TUF, passend zum selben Binning.
Sag mal woher bekommst du ständig die Karten, während alle wie blöd warten? :ugly:
 
Ich stelle mal jetzt womöglich Dumme Fragen aber irgendwie verstehe ichs nicht^^

1. Dieses RTX IO...
Um das ganze nutzen zu können ist das eine Reine Windows Sache und das soll nächstes Jahr kommen?
Also man benötigt dazu kein neues Mainboard oder ist dazu zb. PCIE 4.0 pflicht?
(Oder weis man einfach alles noch nicht?^^)

2. DLSS...
Viele finden das DLSS recht schlecht wenn man hier in Forum schaut aber warum?
Vom Prinzip hat man doch dennoch 4k?
Wenn ich das Richtig verstanden habe ist es doch wie beim Fernseh...Wenn ich Dort etwas auf meinem 4k Fernseh gucke dann rechnet der Chip das dort ebenfalls auf 4k hoch und das selbe Prinzip wendet dann quasi die Graka an.
(Klar deutlich Komplexer aber das Ergebnis bleibt das selbe...Wir haben tatsächlich auch 4k)
Oder kann hier jemand mit DLSS Bilder Posten bei denen man klar erkennt das DLSS aktiv ist VS nicht Aktiv.
 
1) Muss vom Game unterstützt werden. Keine reine Windows-Sache.
2) kommt drauf an wie es umgesetzt ist. Bei FFXV z.b. sieht man ganz genau, das da nicht 4K läuft.
Bei neueren Games soll es sogar besser aussehen als natives 4K. Aber das konnte ich nicht nicht sehen.
Deshalb sind die Leute voreingenommen.
 
zu 1 und kein PCIe4 Pflicht. Aber je schneller, desto besser. Wie mit allem halt.
Allerdings könnten die Spieleentwickler dann etwas in die Mindestanforderungen für ihr Spiel, welches auch RTX I/O unterstützen muss, also auch dort von den Entwicklern eingebaut werden muss hinzufügen, wie z.B. SSD mit 1500 MB/s Minimum.

zu 2: Ich wart da einfach, wie die zukünftigen Implementierungen werden. Setze da auf's Prinzip Hoffnung, dass erste gute Ergebnisse bestätigt und weiter ausgebaut werden, mit zukünftigen Top-Titeln.


edit:

zu1)

Q: Does RTX IO allow use of SSD space as VRAM? Or am I completely misunderstanding?


RTX IO allows reading data from SSD’s at much higher speed than traditional methods, and allows the data to be stored and read in a compressed format by the GPU, for decompression and use by the GPU. It does not allow the SSD to replace frame buffer memory, but

it allows the data from the SSD to get to the GPU, and GPU memory much faster, with much less CPU overhead.

Q: Will there be a certain ssd speed requirement for RTX I/O?


There is no SSD speed requirement for RTX IO, but obviously, faster SSD’s such as the latest generation of Gen4 NVMe SSD’s will produce better results, meaning faster load times, and the ability for games to stream more data into the world dynamically. Some games may have minimum requirements for SSD performance in the future, but those would be determined by the game developers. RTX IO will accelerate SSD performance regardless of how fast it is, by reducing the CPU load required for I/O, and by enabling GPU-based decompression, allowing game assets to be stored in a compressed format and offloading potentially dozens of CPU cores from doing that work. Compression ratios are typically 2:1, so that would effectively amplify the read performance of any SSD by 2x.
 
Zuletzt bearbeitet:
1) Muss vom Game unterstützt werden. Keine reine Windows-Sache.
2) kommt drauf an wie es umgesetzt ist. Bei FFXV z.b. sieht man ganz genau, das da nicht 4K läuft.
Bei neueren Games soll es sogar besser aussehen als natives 4K. Aber das konnte ich nicht nicht sehen.
Deshalb sind die Leute voreingenommen.

Ok, Verstehe Aber ein neues Mainboard ist sicher nicht notwendig.
Zwar wird pcie 4.0 Vorteile haben aber wie sich das auswirkt zeigt sich dann vermutlich erst.

Hmm, Würde doch eigentlich reichen wenn DLSS schon für mehr FPS sorgt. eine besser Qualität wäre dann natürlich nur noch eins oben Drauf aber schon ersteres Würde doch völlig ausreichen.
Würde das ebenfalls den VRam reduzieren oder spielt der hierbei keine Rolle?
Vermute mal alle Features sind eher für neue Games und nicht die aktuellen.
Zudem wird AMD sicher was eigenes oder ähnliches bringen...Hoffe das Sie das ganze simpler halten als damals mit Freesync und GSync...


Nehmen wir mal das RTX IO und von AMD funktioniert so wie angekündigt und wir verkürzen die Ladescreens enorm.
Wäre es denkbar das Games wieder mit mehr (evtl. Versteckte) Ladescreen verssehen sind weil diese so kurz sind das es den Spielern kaum bis gar nicht auffällt und man dadurch den VRAM Verbrauch niedriger hallt aufgrund der Art und weise wie man Games designet.
Hoffe man versteht was ich meine...(Achtung das kann völliger Blödsinn sein^^)
 
Ich hätte da mal eine Frage an Leute die von einer 2080 Ti auf eine 3090 upgegradet haben. Findet ihr es hat sich gelohnt? Ich wollte mir ja auch unbedingt eine 90er holen. Nur habe ich mir jetzt einige Videos angeschaut und so langsam zweifle ich doch etwas. Problem was ich diesmal sehe ist folgendes. Von der 1080 Ti auf die 2080 Ti hat man so 35% mehr Leistung aber die beiden Karten verbrauchen zumindest fast die gleiche Menge an Strom (260/250W). Diesmal ist es aber halt so das man fast so viel mehr an Watt braucht wie man Frames mehr bekommt und ich finde das irgendwie keine so richtigen Fortschritt.
 
Es geht eigentlich gar nicht so um den Strom sondern eher das mehr Watt auch mehr ist die in meine Wakü fliesen (denn das Teil kommt wenn dann auf jeden Fall unter Wasser) und aktuell ist mein System sehr Silent trotz Aorus 2080 Ti Xtreme die Stock schon 300 Watt frisst. 100 Watt mehr bei der 90er kann dann schon halt nicht mehr ganz so Silent sein.
Aber weil du meinst das sich für dich das Upgrade gelohnt hat darf ich fragen ob deine alte 2080 Ti stock oder auch OC war bzw. in welcher Auflösung nutzt du sie?
 
Zuletzt bearbeitet:
Zurück