Neuer Treiber sorgt für weniger Crashes bei RTX 3080

Naja also ich konnte den maximalen Takt in Anwendungen wie Assasin Creed Odyssey auch dauerhaft fahren,so ist das nicht.
 
Habt ihr immer noch nicht verstanden, dass der Max-Boost, der nur kurz anliegt und in diesem Moment die Karte abrauchen lässt, keinen Einfluss auf die Leistung hat? Holy...

:wall: Boost erhöt Leistung auch wenn nur extrem kurtz anliegt. Sonst könnte Nvida den ja auch komplett weg lassen wenn ja keine Leistung dadurch beeinflusst würde. Sollte dir aber nach ein bischen überlegung selbst klar sein dass nach deiner Aussage der Boost nutzlos wäre.
Hier für dein Fachwissen:
GPU Boost 2.0 (by NVIDIA) hilft dabei, jedes Quäntchen Rechenleistung aus der Grafikkarte herauszuholen und damit bei jedem einzelnen PC-Spiel die Framerate zu maximieren. Dieses erhöht den Boost-Takt so weit, bis die Grafikkarte eine vordefinierte Temperaturzielvorgabe erreicht.
Nachdem NVIDIAs Techniker in dem Jahr nach der Markteinführung der GTX 680 Daten von Hunderttausenden Endbenutzern erworben hatten, kamen sie zu der Erkenntnis, dass die Temperatur des Grafikprozessors allgemein eher als Leistungshemmer denn als Energiefresser anzusehen wäre.

Genial wie du einfach etwas behauptest ohne jegliche Quellenangabe die deine Aussage untermauert.
da sage ich nur :klatsch: Holy ... zu dir :banane:
 
Naja also ich konnte den maximalen Takt in Anwendungen wie Assasin Creed Odyssey auch dauerhaft fahren,so ist das nicht.
Die Zeit die ich gespielt habe, lag der Takt durchgehend auf 1965 Mhz und ist keinen Millimeter abgewichen, also würde dies stabil laufen wäre ich mehr als zufrieden. Das sind 165Mhz über Specs, mehr als der Wert, für den ich bezahlt habe. Ich wäre auch mit 1900 Mhz zufrieden, allerdings will ich als Kunde die Sicherheit, dass dies wirklich nur ein Boostproblem und kein Kondensator Problem ist.

Manche regen sich ja auf das die Karte statt 2050 nur mehr 2000 oder gar 1950 schafft, sowas finde ich allerdings ungerechtfertigt, vorallem wenn die Karte dann stabil über Specs läuft..
 
@Gurdi mit seinem 3000€-Golden Sample mal wieder... :lol:

Wenn der maximale Boosttakt nur bei wenig Auslastung anliegt kann das natürlich schon etwas bei Frametimes und Latenzen ausmachen! Die reine Rechenpower und auch Gameleistung wird aber eher durch den Durchschnitt über längere Zeit repräsentiert. Und der ist jetzt crashfrei und besser.

Erinnert sich noch jemand an diese Firma namens Intel? Habe einem von Igors Videos entnommen, dass die CPUs durch die Patches der Lowlevel-Sicherheitslücken ganze 20% (!) langsamer geworden sind. Das nenne ich mal Beschiss. Und zwar nach Jahren und nicht eine Woche nach Launch wo noch niemand das Produkt hat.

Würde AMD das gleiche machen würde ich mich auch nicht echauffieren, solange es dann immer noch die schnellste Grafikkarte (oder die schnellste Grafikkarte für 700€) ist sehe ich das nicht als Betrug oder Schummelei. Die Prämisse unter der ich mich für das Produkt entschieden habe bleibt ja voll und ganz erfüllt.
 
Endlich ein neuer Treiber. Der alte hatte bei mir zwar einige Probleme gemacht, aber der neue auch. Es scheint einfach nicht möglich zu sein ohne einige Probleme zu spielen, oder zurück zum Desktop zu gelangen, ohne es zu wollen. Was ist denn da los? Ist das beabsichtigt, oder einfach nur Schicksal? Fragen über Fragen, ich hoffe es wird in Zukunft besser werden, sonst muss ich mich an diesen Zustand gewöhnen.
 
Endlich ein neuer Treiber. Der alte hatte bei mir zwar einige Probleme gemacht, aber der neue auch. Es scheint einfach nicht möglich zu sein ohne einige Probleme zu spielen, oder zurück zum Desktop zu gelangen, ohne es zu wollen. Was ist denn da los? Ist das beabsichtigt, oder einfach nur Schicksal? Fragen über Fragen, ich hoffe es wird in Zukunft besser werden, sonst muss ich mich an diesen Zustand gewöhnen.


Wenn du dir eine RTX3000 gekauft hast und mit dem derzeitigen Zustand, der Hardware, oder auch verfügbaren Software nicht zufrieden bist, dann zurück zum Händler damit.

Dara gewöhnen sollte man sich nicht.
 
Heute noch wieder einen Artikel bei PCGH und Golem gelesen.

Hier ist nach wie vor unklar, woran es genau liegt, laut den Artikeln.
In einem der Artikel stand auch, das es keine Probleme gäbe, "wenn die Partner sich an die Empfehlung von Nvidia gehalten hätten". Das liest sich, wie es gab eine Materialliste, die Grundsätzlich Bauteile erlaubt, aber für die Funktioni in den Kombinationen, ist der Partner selbst verantwortlich. Darüber hinaus aber auch eine Empfehlung, die funktioniert hätte.

Auch wenn Nvidia die Designs der Partner absegnet, wird das eher so aussehen, das Nvidia das grundlegene Design absegnet, aber weiterhin dei Partner verantwortlich bleiben.

Ich kenne das bei uns aus dem Maschinenbau ähnlich, unsere Schaltanlagen werden auch abgenommen und für die Funktion dieser Kombinationen, bleiben wir verantwortlich.
Das klingt für mich nach Verifizierung und Validierung. Nvidia würde sich demnach nur um die Verfikation der Partnerschaltungen kümmern, die Validierung in einer konkreten Testumgebung müssten dann die Partner selbst durchführen. Das ist so üblich und macht auch Sinn. Es gab aber Infos, wonach die Partner die Treiber zur Validierung von Nvidia zu spät erhalten haben. Da würde man dann die Schuld nicht alleine den Partnern in die Schuhe schieben.
Wichtig ist das es schnelle Lösung gibt. Es hat immer schon bei Release Treiber/Hardware Kombinationen gegeben, die abgestürzt sind, auch gab es das bei eingesessenen Produkten auch immer mal wieder.

Da hier anscheinend kein Rückruf nötig wird, zumindest nach dem was ich bisher gelesen habe.
Oder sie wissen nicht, woran es liegt. Die beste Vorgehensweise ist es, weiter nach den Ursachen zu suchen. Mit dem neuen Treiber sind die Karten einigermaßen stabil. So verschafft man sich Zeit, den Rückruf kann man jederzeit betätigen.
 
Genial wie du einfach etwas behauptest ohne jegliche Quellenangabe die deine Aussage untermauert.
da sage ich nur :klatsch: Holy ... zu dir :banane:

Bitte:


Tenor: Die Boost-Limitierung hat keinen Performance-Verlust zur Folge. Also ergibt sich für mich, dass die Chips bei Dauerlast erst gar nicht (lang) am gesetzten Maximum rennen.

Gurdis Tier 2 3090 ist da kein Maßstab. Und auch er selbst sagte, dass die 3080 größtenteils Tier 0 und 1 Chips abbekommen haben. Ich bin der Meinung, dass die "schlechteren" Chips das OC der Boardpartner einfach nicht vertragen, da @Stock schon an der Schmerzgrenze und außerhalb des Sweet-Spots agiert wird.


-> 28% weniger Leistungsaufnahme bei 3-11% FPS Einbuße!

An dieses Kondensator-Gate glaube ich persönlich nicht.

Und mit dem nVidia-Marketing-Gewäsch brauchst du mir gar nicht erst kommen. :D

Aber jo, der arme Kunde wird durch 50mhz weniger theoretischen Max-Boost so arg beschnitten. ;)
 
Der8auer hat es in seinem Video an einer echten Karte mit seinen Lötkünsten ausprobiert.:daumen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Selbst mit den MLCC,s geht nicht viel , was zeigt das die Kondensatoren nicht das eigetliche Grundproblem sind !

Da hätte sich Igor wieder mal seine langweiligen Laaber Threads , die wie fast immer ohne Aussage Kraft sind , weil es nur bunte Bildchen gibt , aber keine wirkliche Versuche und Mod,s , sparen können :rollen:
Mach`s doch besser, oller Meckerer. Ich finde Igor`s Video`s im Gegensatz zu dir sehr informativ und... unterhaltsam :P

Gruß
 
Bevor eine GraKa-Gen überhaupt auch nur lieferbar ist? Na wenn Du meinst...
Ich denke, da könnte Dir Deine Erinnerung wohl einen Streich spielen. ;-)

Du weiß doch gar nicht, wann der GA103 spruchreif ist.
Wenn der erst im Frühjahr kommt, ist GA 102 sicher schon lange in ausreichenden Mengen lieferbar.
Zudem verstehe ich nicht, was du mit "komplett überarbeitet" meinst, oder geht es dir darum so zu tun, als ob GA102 ein Müll-Chip sei?

Die Tatsache, dass Nvidia diesen Chip bringt, zeigt wo sich Big Navi einordnen wird, unterhalb der 3090, in etwa auf Niveau der 3080.
 
Du weiß doch gar nicht, wann der GA103 spruchreif ist.
Wenn der erst im Frühjahr kommt, ist GA 102 sicher schon lange in ausreichenden Mengen lieferbar.
Zudem verstehe ich nicht, was du mit "komplett überarbeitet" meinst, oder geht es dir darum so zu tun, als ob GA102 ein Müll-Chip sei?

Guck'st Du hier:

Oder bei Kopite, Link war bereits geteilt. Wie Du das Ganze wertest, bleibt natürlich ganz Deine Sache. :-)

Edit:
Eine Ablösung durch einen eine Performanceklasse darunterliegenden Chip gab es imho jedenfalls noch nie -völlig unabhängig davon , wie schnell der Vorgänger nun kannibalisiert wird.
 
Zuletzt bearbeitet:
Guck'st Du hier:

Oder bei Kopite, Link war bereits geteilt. Wie Du das Ganze wertest, bleibt natürlich ganz Deine Sache. :-)

Edit:
Eine Ablösung durch einen eine Performanceklasse darunterliegenden Chip gab es imho jedenfalls noch nie -völlig unabhängig davon , wie schnell der Vorgänger nun kannibalisiert wird.
Ich vermute schlechte Ausbeute für den Preispunkt von 699$. Damit würden sie womöglich dem AMD-Angebot zuvorkommen, die Marge würde aber zu sehr leiden. GA103 wäre "billiger" und konkurrenzfähig zum Angebot von AMD für bis zu 699$.
 
Ich vermute schlechte Ausbeute für den Preispunkt von 699$. Damit würden sie womöglich dem AMD-Angebot zuvorkommen, die Marge würde aber zu sehr leiden. GA103 wäre "billiger" und konkurrenzfähig zum Angebot von AMD für bis zu 699$.

Du meinst, nV kommt dann gegen BN hauptsächlich über den Preis? Das wäre so überhaupt nicht mehr das nvidia, dass ich kenne. :lol:Eher friert doch die Hölle zu...
 
So, ich hab versprochen ich melde mich nochmals zu Wort.

normalerweise wiederrufe ich meine Aussagen ungerne, diese abertippe ich mit einem schmunzeln in mein Handy.Firestrike ultra rennt nun seit ca 1,5h im loop, ohne irgendwelche mukken. Taktet bis 1965mhz, temp geht bis 66 grad, kein crash. Es scheint als wäre das wirklich ein cod fehler gewesen und nicht die gigabyte gaming oc. Ich werde mein endültiges fazit noch nicht geben, aber ich habe aktuell wieder mehr vertrauen zu meiner 3080, möglicherweise habe ich Gigabyte unrecht getan...

ich werde cod momentan aus meinem testszenario entfernen und weiter schauen, wie du karte tut. Ich denke jetz kann ich sie wieder idlen lassen, sie hat genug geschwitzt ?
 
Du meinst, nV kommt dann gegen BN hauptsächlich über den Preis? Das wäre so überhaupt nicht mehr das nvidia, dass ich kenne. :lol:Eher friert doch die Hölle zu...

Das ist schlicht eine Optimierung der Fertigungskosten, völlig normale Gewinnmaximierung, wie bei AMD auch oder denkst du etwa AMD hat nur aus "Langeweile" die letzten 12 Monate darauf "verzichtet" seine RDNA2-IP in den Markt zu bringen?
Der GA102 mit seinen 84 SMs wird als Vollausbau die große Quadro und voraussichtlich die neue Titan versorgen. Mit nur zwei SMs weniger stellt sie den Unterbau für die 3090 dar. Dass bei der Fertigung auch einiges an Ausschuss abfällt, ist bei dieser Chipgröße unvermeidlich und die Fertigung würde überproportional teuer werden, müsste man diesen ungenutzt entsorgen, also strippt man den Chip auf 68 SMs runter und bietet darüber die 3080 an. Man schlägt somit zwei Fliegen mit einer Klappe. Die GA102-Produktion läuft an, man kann mit beiden Kartenmodellen starten und sammelt zwischenzeitlich auch etliche Chips an, die sich für den Vollausbau eigenen, sodass man bald die Quadro bringen kann.
Parallel lässt man dann vielleicht (wenn es so kommt) langsam die Produktion des GA103 anlaufen, der vielleicht 70 - 72 SMs hat und damit etwas kleiner ausfallen kann und zudem möglicherweise auch grundsätzlich auf zwei Speichercontroller verzichtet? Über diesen kann man ebenso in unveränderter Art die 3080 abbilden und man hätte noch die Option mit diesem Vollausbau eine geringfügig schnellere 3080 Ti mit 20 GiB zu offerieren . Dazu könnte man es sich bei dem kleineren Chip auch viel eher leisten diesen gar noch deutlich weiter runterzustrippen um bspw. eine leistungsfähigere 3070 Ti mit 16 GiB mit mehr SMs als der Basisversion anzubieten. Den großen GA102 so weit runterzustrippen wäre vollkommen unwirtschaftlich.
Das Problem hat AMD schon seit längerem bei den CPUs, da hier immer noch sehr viele 4- und 6-Kerner gekauft werden, man aber lediglich ein 8-Kern CCD hat (und zudem auch zusätzlich immer einen großen IOD sowie das komplexe Package benötigt) bzw. man auch lediglich ein einziges 8-Kern-Renoir-Die hat. Intel bspw. nutzt nicht umsonst dedizierte Chipdesigns für 10, 8, 6, 4 Kerne, was fächentechnisch weitaus effizienter ist im Consumer-Segment. (Das Problem dabei ist natürlich, dass diese zusätzlichen Designs auch zusätzliche Kosten verursachen, d. h. das amortisiert sich erst ab gewissen Absatzzahlen.)
 
Zuletzt bearbeitet:
Zurück