Technologie_Texter
BIOS-Overclocker(in)
Wozu abwarten?Aber warten wir es ab ok?
Bei AMD wartest du doch auch nie ab, sondern urteilst sofort

Wozu abwarten?Aber warten wir es ab ok?
Die Offsetgeschichte riecht zu sehr nach Netzteilproblemen. Kann sein, dass die Netzteile unterdimensioniert sind und Ampere mit dem gewaltigen Verbrauch die alten/schwachen Netzteile bloßlegt.Aber erstmal andere Probleme fixen...
![]()
NVIDIA GeForce RTX 3080 Users Report Crashes & Black Screens During Gaming
Several reports of NVIDIA's GeForce RTX 3080 graphcis card crashing and resulting in black screens are being reported by gamers.wccftech.com
Immer mehr und mehr Berichte tauchen auf auf diversen Seiten. Die haben mal paar Seiten zusammengetragen.
Aber keine Sorge Leute, Abhilfe schafft man ja ganz leicht, indem ihr 100MHz runtertaktet und die GPU fast auf 2080Ti Niveau drosselt^^ Freue mich schon auf Big Navis Probleme zum Release, ärgerlich das Ganze aber keine Seltenheit.
technisch ist eine rtx3080 mit 20gb mit der Platine nicht möglich
und nein die rtx3090 hat eine andere
Entweder die rtx3080 kommt q3 2021 mit 2gb ddr6x oder was möglich ist ein modell mit 12 statt 10gb mit vollen 384bit chip
Weil aber das letzte ehr Dumm wäre vermute ich das man eher
Ein rtx3090 Modell mit nur 320bit chip und 20gb als rtx2080ti für 1299€ gibt
wenn man jetzt mal von den herumgeisternden 10GB VRAM bei den Navi Modellen ausgeht.
Lächerlich ist einzig und allein dein "gekritzel" hier8 GB sind mehr als genug. Für 1080p und 1440p. Sogar einige 4K. 10 GB oder 11 GB haben Spielraum für zukünftige Spiele in JEDER Auflösung. Dieses ganze Warten auf 16GB-, 20GB- oder 24GB-Karten ist lächerlich.
.......................
Und ja ich nenne DLSS2.0, weil Nvidia es hier nunmal schafft den VRAM-Bedarf um durchschnittlich 30% zu senken, bei einer Steigerung der Bildqualität. DLSS2.0 nutzt vorgerendertes 16K-Bildmaterial und integrierte Spezialfilter, die ein natives 4K-Bild im Vergleich zu einem DLSS-4K-Bild alt aussehen lassen. Das kann man shitstormen wie man will - es stimmt. Gleichzeitig steigt die Performance massiv an. Dank DLSS ist mittlerweile sogar 4K/120FPS-Gaming auf Ultra in AAA-Titeln möglich. Probiert das mal ohne DLSS.
.......................
Muss nicht an den Treibern liegen sondern eher an den zu schlechten Netzteilen.
Mit Nvidia Treibern hatte ich nur sehr selten Probleme, da konnte man dann immer den älteren nutzen.
Auch mit einer neuen Grafikkarte gehts.
Vielleicht habe auch Leute eine zu schlechte Gehäusebelüftung?
Mit (un)seriöser Kommunikation hat das nichts zu tun.Die 16 und 20 GiB-Modelle sind als Reaktion auf AMD gedacht, insofern kann und will nVidia hier natürlicherweise nichts vorher kommunizieren (ebenso wie AMD derzeit nichts durchsickern lässt). Darüber hinaus ist das aber auch kein echtes Problem, denn wer hier halbwegs am Ball geblieben ist, weiß schon länger von den Modellen mit dem größeren Speicher, aber was sollte da nVidia jetzt zu sagen. "Ja, da kommt noch was, nur wir sagen weder wie schnell wir diese Modelle auslegen werden noch wie viel die kosten werden." Wem sollte die Information nützen? Vertriebstechnisch wäre das völliger Unsinn. Die wollen erst auf AMD warten oder zumindest bis sie sich einigermaßen sicher sein können was kommen wird, um ihren Konter entsprechend auszurichten.
Egal wie rum man es dreht ist die 3080 mit 10GB unrund. Ja, es kommt das Argument, für FHD braucht man nicht mehr Speicher. Ab WQHD kann ich aber sagen, 10GB sind auf Kante und definitiv nicht zukunftssicher.
Und wer jetzt wiederum Argumentiert 10 GB Reichen immer, DLSS blablabla dem sage ich: Dann reicht auch die 3070......
Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?Die Offsetgeschichte riecht zu sehr nach Netzteilproblemen. Kann sein, dass die Netzteile unterdimensioniert sind und Ampere mit dem gewaltigen Verbrauch die alten/schwachen Netzteile bloßlegt.
Ich wünsche niemandem Probleme mit ihren frischen Karten. Das wäre für mich eine Technotragödie.
Man könnte es auch anders ausdrücken, jeder der 800.00€ ausgeben kann, der kann auch auf eine 3080Ti warten und sich dann das Topmodel kaufen.Jeder der 800€+ für eine Grafikkarte ausgibt muss eins sein: Glücklich mit der Leistung und den Features die er damit bekommen hat. Nur weil du dich verarscht fühlst kann jemand anderes perfekt glücklich damit sein. Nicht jeder muss in absolut jeden Spiel das 8K Texturenpaket haben.
Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?
Sei mir nicht böse, aber für mich liest es sich so, das NV DLSS benutzt, um die RAM beschnittenen Karten
weiterhin zum Vollpreis zu verkaufen.
Es bleibt immer wieder, belegen ist nicht brauchen.
Ja, bei deiner Logik....da Schüttel ich auch den Kopf."Unser Auto fährt zweimal so schnell mit der Hälfte an Benzin."
"Sei mir nicht böse, aber für mich liest es sich so, als würdet ihr das benutzen um Autos mit kleinerem Tank zum Vollpreis zu verkaufen."
Sorry, aber da bleibt nur noch Kopfschütteln bei der "Logik".
Beweislastige Beispiele bitteDas mag für einige Spiele gelten, aber bei weitem nicht für alle.![]()
Man könnte es auch anders ausdrücken, jeder der 800.00€ ausgeben kann, der kann auch auf eine 3080Ti warten und sich dann das Topmodel kaufen.
Ich gehe davon aus, dass es hierbei auf 3xx.00€ mehr auch nicht mehr ankommt.
Verrückt sind diese Summen trotzdem.
Aber natürlich steckt hier durch Nvidia reine Verkaufstaktik dahinter und man sollte noch warten was hier hinterher kommt.
Wer auch vorher kaufen muss hat dann halt vorerst ........... aber hinterher kann man sich immer noch ärgern.
Das stinkt mir jedesmal, dass Nvidia nicht gleich alle Kartenmodelle offenlegt, bzw. gleichzeitig anbietet.
Hat schon etwas von Kundenverarsche.
Jetzt könnte jemand argumentieren, es liege an der Produktion bzw. je nach Ausschuss der Chipqualität.
Mag sein aber in dem heutigen Stand der Technik bezweifele ich das etwas.
Um mal bei deinem vergleich zu bleiben: Das Auto säuft genauso viel. Es ist nur so billig gebaut, das es überall scheppert und es sich doppelt so schnell anfühlt (bei gleichem Verbrauch). Und nebenbei ist der Kofferaum halbiert, so fühlt es sich noch schneller an....bis du mal was schweres laden musst und feststellst das die neue karre theoretisch genug power hat, aber praktisch dem Kofferaum eines Smarts hat.
Ganz ruhig...atme mal zwischendurch...Ich habe meine Karte seit fast 4 Jahren...und damals waren 11gb schon ordentlich und zukunftssicher (hat mir bis jetzt gereicht). 10gb sind es heute nunmal nicht wenn du in ultra settings@4k spielen willst und erst recht nicht wenn du Mods verwendest, vorallem wenn du die Karte über eine längere Zeit verwenden willst so wie ich.Keiner zwingt die Leute was zu kaufen. Aber hey, kauf du dir doch irgendeinen alten Server Xeon mit 2 TB RAM, da müsste ja alles viel schneller nun laufen, wer braucht schon moderne Architektur wenn er RAM haben kann ?
Na dann hast du ja voll in die ************************ gelangt oder nicht ? Warum keine Radeon VII geholt ? Viel zukunftssicherer als die 1080 Ti ! VIEL mehr VRAM und nur das zählt ja !
Und klar zukunftssicher muss es sein bei einem Produkt das ohnehin alle 2-3 Jahre getauscht wird, das muss 20 Jahre halten ! MINDESTENS !!!
Da du hier mitredest nehme ich an du bist potentiell interessiert an einer 3080, also nichtmal 3 Jahre nach Release der 1080Ti (und evtl. hast du sie ja auch erst 18 oder 19 gekauft?). Und welche Spiele der letzten Jahre wo du so wenig zukunftssicher gewesen wärst (wie damals schon alle geflennt haben) fallen dir ein wenn du jetzt eine 2080 in 2018 geholt hättest ? Mir eigentlich nur Doom Eternal.
Aber Hauptsache ZUKUNFTSSICHER ! Aus dem Munde des Mannes welcher selbst keine drei Jahre mit einer Karte verbringt besonders glaubwürdig vorgetragen.![]()
"3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist vor über 4 Jahren erschienen, nur zur Info.
Gibt es einen Test, in dem das aufgezeigt wird? Oder hast du Ruckeln, wegen Speicherüberlauf?Persönlich kann ich nur auf meine eigenen Erfahrungen verweisen, bspw. mit X-Plane.
Und das kann ich jederzeit belegen, von mir aus notariell beglaubigt. ,
10 GB sind 2020 einfach nicht mehr angemessen.
edit: zumindest nicht für eine € 800 Karte.
Stimmt hast recht, habe da etwas verwechselt, habe es korrigiertDie 1080ti wurde im März 2017 Released, ist jetzt also 3 1/2 Jahre alt.
Ändert aber nichts daran, dass man in eben dieser Zeitspanne für denselben MSRP 1 GB Vram weniger bekommt. Und man sollte wirklich wirklich dringend davon abgehen Beispiele von heute oder gar gestern heranzuziehen um damit belegen zu wollen, dass 10GB Vram auch morgen noch mehr als ausreichend seien werden.
Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.Die neuen Konsolen haben auch ordentlich VRam...
Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.
Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.Wenn du denkst dir reichen 10gb VRam dann ist das i.O., für mich reichen sie nicht, vorallem weil ich wie schon erwähnt 2 Generationen überspringe bis ich mir dann wieder eine neue Graka kaufe.
Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.Seltsam das die neuen Konsolen 16GB VRAM habenund das mit dem ältern Speicher GDDR6 und komen nur auf eine Bandbreite 448GB/s
XBOX X hat auch nur 10 GB VRAM zur verfügung![]()
Stimmt, aber man darf nicht vergessen, das die Spiele für die Konsolen viel besser optimiert werden als für den PC, auch was VRam Belegung angeht.Haben sie eigentlich nicht, sie haben 16GB gemeinsamen Speicher für Ram und Vram.
Das ist ziemlich wenig wenn man bedenkt dass die Generation davor mit 8 bzw 12GB (Xbox One X) ausgekommen ist und man diesmal 4K anvisiert,
Watch Dogs Legion fordert eine RTX 2080ti für 4K/Uktra an, und die hat eben 11GB Vram.
Der Punkt ist dass die allermeisten Engines den Vram pool mit Cache Daten befüllen bis zum geht nicht mehr wenn Speicher vorhanden ist, bei Horizon Zero Dawn können das schonmal 16GB sein.
Das heißt nicht dass man mit weniger Vram nicht flüssig spielen kann. Relevant ist nur wieviel Speicher Texturen und co. nehmen, und das sind tatsächlich nur 4-6GB in 4K/Ultra aktuell.
Daher ich glaube dass die RTX 3080, bevor sie zu wenig Vram hat, ihr die Leistung ausgeht.
Sie haben 16GB gemeinsamen Speicher für Ram und Vram, am PC haben wir ja auch nicht 24GB Vram wenn Du eine 8GB GPU inkl. 16GB Ram nutzt.![]()
Genau das ist, was ich auch am meisten kritisiere bei Nvidia.Ganz egal womit Nvidia jetzt kontert.
Alleine die Tatsache, kurz vorher eine beschnittene 3080 auf den Markt zu werfen um die hungrigen Bots und dessen Kunden am Ende mit überteuerten Karten zu füttern, ist eine bodenlose Frechheit.
Vor allem, weil im selben Atemzug schon die 20 gb Version im Raum stand. Kommt dann die Super und haben wir jetzt im Quartalswechsel stets Neuauflagen von Neuauflagen?
Ich habe andere Möglichkeiten nicht ausgeschlossen. Aber, was für ein 1200W Netzteil hat er denn?Jayztwocents hatte ein 1200W Netzteil dran. Das soll unterdimensioniert sein?
1. Wozu der Hinweis ? Fällt es dir ohne Erinnerung schwer ?1. Ganz ruhig...atme mal zwischendurch...
2. und damals waren 11gb schon ordentlich und zukunftssicher (hat mir bis jetzt gereicht).
3. 10gb sind es heute nunmal nicht wenn du in ultra settings@4k spielen willst
4. und erst recht nicht wenn du Mods verwendest,
5. vorallem wenn du die Karte über eine längere Zeit verwenden willst so wie ich.
6. Ich lasse generell meist 2 Generationen aus und kaufe mir dann immer die stärkste GK, in diesem Fall wäre das also die 3080 (3090 lohnt sich für mich nicht aus P/L Sicht) von Nvidia oder halt Big Navi von AMD.
7. Deshalb ist für mich mehr VRam sehr wichtig.
8. Die neuen Konsolen haben auch ordentlich VRam, weil sie einen rel. großen Lebenszyklus haben und man weiß, dass bei 4k in Zukunft mehr VRam benötigt wird.
9. Schau dir z.B. WD:Legion an, da wird schon von 11gb VRam gesprochen und ist nicht mal ein Next-Gen Spiel.
10. "3080, also nichtmal 3 Jahre nach Release der 1080Ti "...die 1080Ti ist vor über 4 Jahren erschienen, nur zur Info.
Nö, für Texturen auf dem Level der aktuellen Konsolen (PS4 und Xbox One) reichen 2-3GB Vram.Stimmt, aber man darf nicht vergessen, das die Spiele für die Konsolen viel besser optimiert werden als für die Konsolen, auch was VRam Belegung angeht.
Du verstehst einfach nicht, Vram Belegung heißt nicht dass dieser für ein flüssiges Spielen auch notwendig ist, wenn ein Großteil mittlerweile von modernen Engines mit Cache befüllt wird. Solange texturspezifische Daten genug Platz haben, und diese benötigen nachweislich zumeist zwischen 4-6GB Vram in 4K/Ultra, sind 10GB mehr wie genug.Ausserdem kosten die neuen Konsolen zwischen 400 und 500 Euro als Gesamtsystem und die 3080 kostet min. 700 eher so um die 800 und dabei hat man auch nur die Graka sonst nichts.
Was WD:Legion angeht, das war nur ein Beispiel, erste Benchmarks werden schon zeigen wieviel VRam es benötigt bei Ultra@4k + RT.
Wenn man in geringeren Auflösungen Spielt dann mögen die 10GB ausreichend sein, aber die neuen Grakas (ab 3080) sind eigentlich für 4k gedacht und dafür ist der VRam zu knapp (wenig).
Eine fast 4 Jahre alte 1080Ti hat mehr VRam als die aktuelle auch wenn es nur 1gb ist.
Was mich auch stört ist, dass Nvidia erst die Leute eine 10GB Karte kaufen lässt um dann kurz danach eine mit 20 GB zu Releasen, das deutlich besser zu einer "4k Karte" passt, vorallem, wenn man sie ein paar Jahre nutzen möchte so wie ich z.B.
Hab ich gelesen, war ein Seasonic. Hab ja selbst nur 750W welches so "OK" ist. Mal sehen woran das genau liegt.Frag doch mal bei PCGH Nach, da hat doch die 3080 ein 750W Netzteil "überfordert". Und das war bestimmt kein Chinacracker.
Und unterdimensioniert ist sowas nicht. Die Frage ist doch: Warum muss ich ein 900-1000W Netzteil kaufen, nur weil die Grafikkarte für ms ein "Polster" von +200W braucht? Effizient oder Sinnvoll ist sowas nicht.
Was passiert jetzt eigentlich bei dem ALDI Stangenrechnern? Werden da nun teure 800W+ Markennetzteile verbaut? Wie siehts in Notebook aus? 240W Notebook Netzteil gibts im CAD Bereich, aber für Consumer Spielerechner?
Asus ROG-Thor-1200P soweit ich weiß. Is jetzt nicht wirklich günstig.Ich habe andere Möglichkeiten nicht ausgeschlossen. Aber, was für ein 1200W Netzteil hat er denn?