• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Neuer Treiber sorgt für weniger Crashes bei RTX 3080

Gurdi

Kokü-Junkie (m/w)
Naja also ich konnte den maximalen Takt in Anwendungen wie Assasin Creed Odyssey auch dauerhaft fahren,so ist das nicht.
 

dada82

Komplett-PC-Aufrüster(in)
Habt ihr immer noch nicht verstanden, dass der Max-Boost, der nur kurz anliegt und in diesem Moment die Karte abrauchen lässt, keinen Einfluss auf die Leistung hat? Holy...

:wall: Boost erhöt Leistung auch wenn nur extrem kurtz anliegt. Sonst könnte Nvida den ja auch komplett weg lassen wenn ja keine Leistung dadurch beeinflusst würde. Sollte dir aber nach ein bischen überlegung selbst klar sein dass nach deiner Aussage der Boost nutzlos wäre.
Hier für dein Fachwissen:
GPU Boost 2.0 (by NVIDIA) hilft dabei, jedes Quäntchen Rechenleistung aus der Grafikkarte herauszuholen und damit bei jedem einzelnen PC-Spiel die Framerate zu maximieren. Dieses erhöht den Boost-Takt so weit, bis die Grafikkarte eine vordefinierte Temperaturzielvorgabe erreicht.
Nachdem NVIDIAs Techniker in dem Jahr nach der Markteinführung der GTX 680 Daten von Hunderttausenden Endbenutzern erworben hatten, kamen sie zu der Erkenntnis, dass die Temperatur des Grafikprozessors allgemein eher als Leistungshemmer denn als Energiefresser anzusehen wäre.

Genial wie du einfach etwas behauptest ohne jegliche Quellenangabe die deine Aussage untermauert.
da sage ich nur :klatsch: Holy ... zu dir :banane:
 

wotti

Kabelverknoter(in)
Naja also ich konnte den maximalen Takt in Anwendungen wie Assasin Creed Odyssey auch dauerhaft fahren,so ist das nicht.
Die Zeit die ich gespielt habe, lag der Takt durchgehend auf 1965 Mhz und ist keinen Millimeter abgewichen, also würde dies stabil laufen wäre ich mehr als zufrieden. Das sind 165Mhz über Specs, mehr als der Wert, für den ich bezahlt habe. Ich wäre auch mit 1900 Mhz zufrieden, allerdings will ich als Kunde die Sicherheit, dass dies wirklich nur ein Boostproblem und kein Kondensator Problem ist.

Manche regen sich ja auf das die Karte statt 2050 nur mehr 2000 oder gar 1950 schafft, sowas finde ich allerdings ungerechtfertigt, vorallem wenn die Karte dann stabil über Specs läuft..
 

BlubberLord

Komplett-PC-Aufrüster(in)
@Gurdi mit seinem 3000€-Golden Sample mal wieder... :lol:

Wenn der maximale Boosttakt nur bei wenig Auslastung anliegt kann das natürlich schon etwas bei Frametimes und Latenzen ausmachen! Die reine Rechenpower und auch Gameleistung wird aber eher durch den Durchschnitt über längere Zeit repräsentiert. Und der ist jetzt crashfrei und besser.

Erinnert sich noch jemand an diese Firma namens Intel? Habe einem von Igors Videos entnommen, dass die CPUs durch die Patches der Lowlevel-Sicherheitslücken ganze 20% (!) langsamer geworden sind. Das nenne ich mal Beschiss. Und zwar nach Jahren und nicht eine Woche nach Launch wo noch niemand das Produkt hat.

Würde AMD das gleiche machen würde ich mich auch nicht echauffieren, solange es dann immer noch die schnellste Grafikkarte (oder die schnellste Grafikkarte für 700€) ist sehe ich das nicht als Betrug oder Schummelei. Die Prämisse unter der ich mich für das Produkt entschieden habe bleibt ja voll und ganz erfüllt.
 

mkm2907

Freizeitschrauber(in)
Endlich ein neuer Treiber. Der alte hatte bei mir zwar einige Probleme gemacht, aber der neue auch. Es scheint einfach nicht möglich zu sein ohne einige Probleme zu spielen, oder zurück zum Desktop zu gelangen, ohne es zu wollen. Was ist denn da los? Ist das beabsichtigt, oder einfach nur Schicksal? Fragen über Fragen, ich hoffe es wird in Zukunft besser werden, sonst muss ich mich an diesen Zustand gewöhnen.
 

derneuemann

BIOS-Overclocker(in)
Endlich ein neuer Treiber. Der alte hatte bei mir zwar einige Probleme gemacht, aber der neue auch. Es scheint einfach nicht möglich zu sein ohne einige Probleme zu spielen, oder zurück zum Desktop zu gelangen, ohne es zu wollen. Was ist denn da los? Ist das beabsichtigt, oder einfach nur Schicksal? Fragen über Fragen, ich hoffe es wird in Zukunft besser werden, sonst muss ich mich an diesen Zustand gewöhnen.


Wenn du dir eine RTX3000 gekauft hast und mit dem derzeitigen Zustand, der Hardware, oder auch verfügbaren Software nicht zufrieden bist, dann zurück zum Händler damit.

Dara gewöhnen sollte man sich nicht.
 

-ElCritico-

Software-Overclocker(in)
Heute noch wieder einen Artikel bei PCGH und Golem gelesen.

Hier ist nach wie vor unklar, woran es genau liegt, laut den Artikeln.
In einem der Artikel stand auch, das es keine Probleme gäbe, "wenn die Partner sich an die Empfehlung von Nvidia gehalten hätten". Das liest sich, wie es gab eine Materialliste, die Grundsätzlich Bauteile erlaubt, aber für die Funktioni in den Kombinationen, ist der Partner selbst verantwortlich. Darüber hinaus aber auch eine Empfehlung, die funktioniert hätte.

Auch wenn Nvidia die Designs der Partner absegnet, wird das eher so aussehen, das Nvidia das grundlegene Design absegnet, aber weiterhin dei Partner verantwortlich bleiben.

Ich kenne das bei uns aus dem Maschinenbau ähnlich, unsere Schaltanlagen werden auch abgenommen und für die Funktion dieser Kombinationen, bleiben wir verantwortlich.
Das klingt für mich nach Verifizierung und Validierung. Nvidia würde sich demnach nur um die Verfikation der Partnerschaltungen kümmern, die Validierung in einer konkreten Testumgebung müssten dann die Partner selbst durchführen. Das ist so üblich und macht auch Sinn. Es gab aber Infos, wonach die Partner die Treiber zur Validierung von Nvidia zu spät erhalten haben. Da würde man dann die Schuld nicht alleine den Partnern in die Schuhe schieben.
Wichtig ist das es schnelle Lösung gibt. Es hat immer schon bei Release Treiber/Hardware Kombinationen gegeben, die abgestürzt sind, auch gab es das bei eingesessenen Produkten auch immer mal wieder.

Da hier anscheinend kein Rückruf nötig wird, zumindest nach dem was ich bisher gelesen habe.
Oder sie wissen nicht, woran es liegt. Die beste Vorgehensweise ist es, weiter nach den Ursachen zu suchen. Mit dem neuen Treiber sind die Karten einigermaßen stabil. So verschafft man sich Zeit, den Rückruf kann man jederzeit betätigen.
 

PureLuck

Software-Overclocker(in)
Genial wie du einfach etwas behauptest ohne jegliche Quellenangabe die deine Aussage untermauert.
da sage ich nur :klatsch: Holy ... zu dir :banane:

Bitte:


Tenor: Die Boost-Limitierung hat keinen Performance-Verlust zur Folge. Also ergibt sich für mich, dass die Chips bei Dauerlast erst gar nicht (lang) am gesetzten Maximum rennen.

Gurdis Tier 2 3090 ist da kein Maßstab. Und auch er selbst sagte, dass die 3080 größtenteils Tier 0 und 1 Chips abbekommen haben. Ich bin der Meinung, dass die "schlechteren" Chips das OC der Boardpartner einfach nicht vertragen, da @Stock schon an der Schmerzgrenze und außerhalb des Sweet-Spots agiert wird.


-> 28% weniger Leistungsaufnahme bei 3-11% FPS Einbuße!

An dieses Kondensator-Gate glaube ich persönlich nicht.

Und mit dem nVidia-Marketing-Gewäsch brauchst du mir gar nicht erst kommen. :D

Aber jo, der arme Kunde wird durch 50mhz weniger theoretischen Max-Boost so arg beschnitten. ;)
 

facehugger

Trockeneisprofi (m/w)
Der8auer hat es in seinem Video an einer echten Karte mit seinen Lötkünsten ausprobiert.:daumen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
Selbst mit den MLCC,s geht nicht viel , was zeigt das die Kondensatoren nicht das eigetliche Grundproblem sind !

Da hätte sich Igor wieder mal seine langweiligen Laaber Threads , die wie fast immer ohne Aussage Kraft sind , weil es nur bunte Bildchen gibt , aber keine wirkliche Versuche und Mod,s , sparen können :rollen:
Mach`s doch besser, oller Meckerer. Ich finde Igor`s Video`s im Gegensatz zu dir sehr informativ und... unterhaltsam :P

Gruß
 

Lichtspieler2000

Freizeitschrauber(in)
Bevor eine GraKa-Gen überhaupt auch nur lieferbar ist? Na wenn Du meinst...
Ich denke, da könnte Dir Deine Erinnerung wohl einen Streich spielen. ;-)

Du weiß doch gar nicht, wann der GA103 spruchreif ist.
Wenn der erst im Frühjahr kommt, ist GA 102 sicher schon lange in ausreichenden Mengen lieferbar.
Zudem verstehe ich nicht, was du mit "komplett überarbeitet" meinst, oder geht es dir darum so zu tun, als ob GA102 ein Müll-Chip sei?

Die Tatsache, dass Nvidia diesen Chip bringt, zeigt wo sich Big Navi einordnen wird, unterhalb der 3090, in etwa auf Niveau der 3080.
 

Illithide

Freizeitschrauber(in)
Du weiß doch gar nicht, wann der GA103 spruchreif ist.
Wenn der erst im Frühjahr kommt, ist GA 102 sicher schon lange in ausreichenden Mengen lieferbar.
Zudem verstehe ich nicht, was du mit "komplett überarbeitet" meinst, oder geht es dir darum so zu tun, als ob GA102 ein Müll-Chip sei?

Guck'st Du hier:

Oder bei Kopite, Link war bereits geteilt. Wie Du das Ganze wertest, bleibt natürlich ganz Deine Sache. :-)

Edit:
Eine Ablösung durch einen eine Performanceklasse darunterliegenden Chip gab es imho jedenfalls noch nie -völlig unabhängig davon , wie schnell der Vorgänger nun kannibalisiert wird.
 
Zuletzt bearbeitet:

-ElCritico-

Software-Overclocker(in)
Guck'st Du hier:

Oder bei Kopite, Link war bereits geteilt. Wie Du das Ganze wertest, bleibt natürlich ganz Deine Sache. :-)

Edit:
Eine Ablösung durch einen eine Performanceklasse darunterliegenden Chip gab es imho jedenfalls noch nie -völlig unabhängig davon , wie schnell der Vorgänger nun kannibalisiert wird.
Ich vermute schlechte Ausbeute für den Preispunkt von 699$. Damit würden sie womöglich dem AMD-Angebot zuvorkommen, die Marge würde aber zu sehr leiden. GA103 wäre "billiger" und konkurrenzfähig zum Angebot von AMD für bis zu 699$.
 

Illithide

Freizeitschrauber(in)
Ich vermute schlechte Ausbeute für den Preispunkt von 699$. Damit würden sie womöglich dem AMD-Angebot zuvorkommen, die Marge würde aber zu sehr leiden. GA103 wäre "billiger" und konkurrenzfähig zum Angebot von AMD für bis zu 699$.

Du meinst, nV kommt dann gegen BN hauptsächlich über den Preis? Das wäre so überhaupt nicht mehr das nvidia, dass ich kenne. :lol:Eher friert doch die Hölle zu...
 

wotti

Kabelverknoter(in)
So, ich hab versprochen ich melde mich nochmals zu Wort.

normalerweise wiederrufe ich meine Aussagen ungerne, diese abertippe ich mit einem schmunzeln in mein Handy.Firestrike ultra rennt nun seit ca 1,5h im loop, ohne irgendwelche mukken. Taktet bis 1965mhz, temp geht bis 66 grad, kein crash. Es scheint als wäre das wirklich ein cod fehler gewesen und nicht die gigabyte gaming oc. Ich werde mein endültiges fazit noch nicht geben, aber ich habe aktuell wieder mehr vertrauen zu meiner 3080, möglicherweise habe ich Gigabyte unrecht getan...

ich werde cod momentan aus meinem testszenario entfernen und weiter schauen, wie du karte tut. Ich denke jetz kann ich sie wieder idlen lassen, sie hat genug geschwitzt 😃
 

gerX7a

BIOS-Overclocker(in)
Du meinst, nV kommt dann gegen BN hauptsächlich über den Preis? Das wäre so überhaupt nicht mehr das nvidia, dass ich kenne. :lol:Eher friert doch die Hölle zu...

Das ist schlicht eine Optimierung der Fertigungskosten, völlig normale Gewinnmaximierung, wie bei AMD auch oder denkst du etwa AMD hat nur aus "Langeweile" die letzten 12 Monate darauf "verzichtet" seine RDNA2-IP in den Markt zu bringen?
Der GA102 mit seinen 84 SMs wird als Vollausbau die große Quadro und voraussichtlich die neue Titan versorgen. Mit nur zwei SMs weniger stellt sie den Unterbau für die 3090 dar. Dass bei der Fertigung auch einiges an Ausschuss abfällt, ist bei dieser Chipgröße unvermeidlich und die Fertigung würde überproportional teuer werden, müsste man diesen ungenutzt entsorgen, also strippt man den Chip auf 68 SMs runter und bietet darüber die 3080 an. Man schlägt somit zwei Fliegen mit einer Klappe. Die GA102-Produktion läuft an, man kann mit beiden Kartenmodellen starten und sammelt zwischenzeitlich auch etliche Chips an, die sich für den Vollausbau eigenen, sodass man bald die Quadro bringen kann.
Parallel lässt man dann vielleicht (wenn es so kommt) langsam die Produktion des GA103 anlaufen, der vielleicht 70 - 72 SMs hat und damit etwas kleiner ausfallen kann und zudem möglicherweise auch grundsätzlich auf zwei Speichercontroller verzichtet? Über diesen kann man ebenso in unveränderter Art die 3080 abbilden und man hätte noch die Option mit diesem Vollausbau eine geringfügig schnellere 3080 Ti mit 20 GiB zu offerieren . Dazu könnte man es sich bei dem kleineren Chip auch viel eher leisten diesen gar noch deutlich weiter runterzustrippen um bspw. eine leistungsfähigere 3070 Ti mit 16 GiB mit mehr SMs als der Basisversion anzubieten. Den großen GA102 so weit runterzustrippen wäre vollkommen unwirtschaftlich.
Das Problem hat AMD schon seit längerem bei den CPUs, da hier immer noch sehr viele 4- und 6-Kerner gekauft werden, man aber lediglich ein 8-Kern CCD hat (und zudem auch zusätzlich immer einen großen IOD sowie das komplexe Package benötigt) bzw. man auch lediglich ein einziges 8-Kern-Renoir-Die hat. Intel bspw. nutzt nicht umsonst dedizierte Chipdesigns für 10, 8, 6, 4 Kerne, was fächentechnisch weitaus effizienter ist im Consumer-Segment. (Das Problem dabei ist natürlich, dass diese zusätzlichen Designs auch zusätzliche Kosten verursachen, d. h. das amortisiert sich erst ab gewissen Absatzzahlen.)
 
Zuletzt bearbeitet:

Illithide

Freizeitschrauber(in)
Nein, sie wollen ihren Gewinn hochhalten, in dem sie einen billigeren Chip dazwischen schieben.
Dass GA102 teurer in der Fertigung sein würde als GA103, wusste nV sicher besser als jeder andere und viel früher. Die Art Planung und Portfolio-Gestaltung, die wir hier jetzt spekulieren, hätte man also von Anfang an haben können. Und hatte man ja vielleicht sogar auch. Ohne ein Schielen auf AMD lässt sich das Hinundher bei nV deshalb imho nicht recht plausibel erklären.

Wenn es dazu führt, dass von nV zusätzlich noch etwa Vernünftiges kommt, kann's uns ja aber nur recht sein. Die 10GB-Glühwürmchen überzeugen mich persönlich bislang noch nicht völlig.
 

-ElCritico-

Software-Overclocker(in)
Dass GA102 teurer in der Fertigung sein würde als GA103, wusste nV sicher besser als jeder andere und viel früher. Die Art Planung und Portfolio-Gestaltung, die wir hier jetzt spekulieren, hätte man also von Anfang an haben können. Und hatte man ja vielleicht sogar auch. Ohne ein Schielen auf AMD lässt sich das Hinundher bei nV deshalb imho nicht recht plausibel erklären.
Nicht, wenn sie von einer viel besseren Chipausbeute/-qualität ausgegangen sind und in der Produktion auf ganz viele Teildefekte Chips stießen, die die Voraussetzung für eine RTX 3080 nicht erfüllten. Zwei Designs sind eins zu viel und zu teuer. Firmen planen nicht ausschließlich reaktiv, sondern meistens mit den eigenen Plänen. Die RTX 3080 haben sie trotzdem paperlaunched, um einen Platzhalter in der Leistungsklasse zu haben.
Wenn es dazu führt, dass von nV zusätzlich noch etwa Vernünftiges kommt, kann's uns ja aber nur recht sein. Die 10GB-Glühwürmchen überzeugen mich persönlich bislang noch nicht völlig.
Es wird lustig. Zwischen RTX 3080 und RTX 3090 sind gerade mal 10% Leistungsunterschied, die RTX 3080 super mit 72 SM würde der RTX 3090 bis auf 5% nahrücken und mit 20GB VRAM sie obsolet machen. Ich gehe eher von einer GA103 mit genau der Leistung von RTX 3080 aus. Sie würde dann entsprechend 999€+ kosten.
 

PureLuck

Software-Overclocker(in)
So, ich hab versprochen ich melde mich nochmals zu Wort.

normalerweise wiederrufe ich meine Aussagen ungerne, diese abertippe ich mit einem schmunzeln in mein Handy.Firestrike ultra rennt nun seit ca 1,5h im loop, ohne irgendwelche mukken. Taktet bis 1965mhz, temp geht bis 66 grad, kein crash. Es scheint als wäre das wirklich ein cod fehler gewesen und nicht die gigabyte gaming oc. Ich werde mein endültiges fazit noch nicht geben, aber ich habe aktuell wieder mehr vertrauen zu meiner 3080, möglicherweise habe ich Gigabyte unrecht getan...

ich werde cod momentan aus meinem testszenario entfernen und weiter schauen, wie du karte tut. Ich denke jetz kann ich sie wieder idlen lassen, sie hat genug geschwitzt 😃
Aber das ist mit dem neuen Treiber?
 

evitca

Kabelverknoter(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Am interessantesten ist die Info, dass die Crashes nur unter Windows auftreten, die selben Karten unter Linux aber komplett stabil sind.
 

dada82

Komplett-PC-Aufrüster(in)
Sowohl Igor als auch Tomshardware spechen hier von weniger als 1 % Fps-Verlust. Für was bitte willst du hier ein Fass aufmachen?

Ich mache keins auf Pure luck machte eins auf und behauptete das es 0% aus macht und dass etwas frech, zu allen in diesem Forenbeitrag. Wobei seine anwort ja an ( fire2002de ) ging er aber gleich alle als dumm abstempelt und sich über alle aufregt (sehr frech und zeugt von einem Kindlichen verstand/verhalten):
PureLuck schrieb:
"Habt ---->ihr<---- immer noch nicht verstanden, dass der Max-Boost, der nur kurz anliegt und in diesem Moment die Karte abrauchen lässt, keinen Einfluss auf die Leistung hat? ---->Holy...<------"

Also macht ja doch was aus auch wenn es unter 1% liegen soll was es an Leistung kostet. Ergo ist seine Aussage banal daneben auch wenn sie fast richtig ist aber :wayne:
Und mit dem nVidia-Marketing-Gewäsch brauchst du mir gar nicht erst kommen. :D

Aber jo, der arme Kunde wird durch 50mhz weniger theoretischen Max-Boost so arg beschnitten. ;)

Ich sagte nicht das viel ist oder sogar spürbar, es ist aber ein Leistungsverlust und wenn nur für eine 100tel sec. da es ja nur 50mhz weniger theoretischen Max-Boost sind, du sagtest ist 0% sind aber doch 0,001 :lol:oder vieleicht mehr aber :wayne:
Nächstes mal hilf Leuten deine Argumente zu verstehen, nicht einfach über Aussagen aufregen und frech werden oder auf einmal alle im Forum für dumm zu halten ;) das ist kein Erwachsenes verhalten.

PureLuck schrieb:
"Habt ---->ihr<---- immer noch nicht verstanden, dass der Max-Boost, der nur kurz anliegt und in diesem Moment die Karte abrauchen lässt, keinen Einfluss auf die Leistung hat? ---->Holy...<------"
 
Zuletzt bearbeitet:

PureLuck

Software-Overclocker(in)
Jap, mit dem neuen Treiber. Habe dann noch 2,5h gespielt, kein crash, alles gut.
Jetzt wird weiter getestet :)
Freut mich für dich. Dann hast du einen der besseren Chips erwischt. :daumen:

Edit:

Achso, konntest du performance Einbußen durch den neuen Treiber feststellen? Also hast du vorher und nachher zufällig die gpu durch nen bench gejagt?
 

dada82

Komplett-PC-Aufrüster(in)
Alles klar Opi, danke für die Maßregelung! Da lege ich Wert drauf.
Bin immer wieder über die rüstigen Rentner erstaunt, die noch so fit am Rechner sind.



Es ist kein Leistungsverlust, wenn Schwankungen von 1-2FPS gemessen werden. Das sind Messvarianzen. Wurde sogar von den Testern von pcworld so attestiert. (Aber da müsste man den Artikel ja lesen - in ENGLISCH, igitt)

Hier auf Biegen und Brechen zu versuchen, dem pösen Kapitalismus mit surrealen Hirngespinsten ein Schnippchen zu schlagen und im anderen Thread die Käufer flächendeckend als willenlose Zombies zu bezeichnen zeugt natürlich von extremer geistiger Reife und Weitsicht. Huch, jetzt war ich der Oppa :) Du (oder muss man schon Sie sagen?) wirst dir doch eh nix dieses "crashenden Mülls" kaufen - wozu also überhaupt die Aufregung über ein Taktcap, welches beim Gamen keine Einbußen verursacht?

Meine, zugegebenermaßen aufmüpfige Frage, kam nicht von ungefähr. Und du bestätigst mir netterweise, wie berechtigt sie doch war.

Hau rein mein kleiner Heuchler-Opa! :kuss:
Zum glück gibt es ja neunmal kluge & freche Kids wie dich :lol:null plan aber dicke fresse. Hauptsache nachpappeln was andere schreiben sich aber nicht mal mit befassen. Und andere dann für dumm verkaufen wollen und mich Heuchler Opa nennen :daumen: Da merkt man was so ein Jüngling (14 Jahre??) wie du für Eltern hatte :slap:
Ich sag es nochmal da du anscheinend nicht lesen kannst ---> klar ist es nicht spürbar (da gebe ich dir sogar recht, was du ja anscheinend nich kapierst) aber dennoch ein extreeeeeem minimaler messbarer und rechenbarer Leistungsverlust Punkt aus. Nimm es hin (warte so kappierst es maybe besser) YO BROHHHHH, ist dir das jung genug also wenn ich Opa sein sollte dann naja :D
 
Oben Unten