Radeon RX 6000: AMD verspricht seine leistungsstärksten Spiele-Grafikkarten

Na denn :lol:


Liefere dafür doch mal Beweise/Fakten. Das hatte ich dich im Post zuvor schon gebeten und was kam? Nichts.


Ja, richtig. Ich sprach von Turing und du von Ampere ;)
Die Ampere Karten laufen 1a.
Deine läuft vielleicht 1a aber es wurde oft genug berichtet, dass es Probleme gab. Du willst entsprechende Berichte, da du selbst nicht in der Lage bist einmal Google entsprechend zu nutzen? https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/ und bei PCGH findest du auch etwas, wenn du nur etwas suchst. Und das war nur einer von vielen Berichten von Treiberfehlern. Dass die ersten Treiber innerhalb weniger Tage wegen der überbordenden Stromaufnahme und dem Sterben einiger günistigerer Netzteile ersetzt werden mussten, solltest selbst du mitbekommen haben...
Es gab mittlerweile 4 Treiberupdates wegen teilweise kritischer Fehler. Und damit eben nicht weniger, als bei AMD, eher das Gegenteil. Und das ist das einzige, was ich aussagen wollte. Treiberfehler gibt es überall und dass es immer nur AMD wäre, wie zuvor behauptet wurde und nV immer fehlerlos, ist eben eine schamlose Lüge.
 
Deine läuft vielleicht 1a aber es wurde oft genug berichtet, dass es Probleme gab. Du willst entsprechende Berichte, da du selbst nicht in der Lage bist einmal Google entsprechend zu nutzen? https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/ und bei PCGH findest du auch etwas, wenn du nur etwas suchst. Und das war nur einer von vielen Berichten von Treiberfehlern.
Du behauptest es gäbe AKTUELL noch Probleme:
Es gibt zahlreiche Berichte von Leuten, die Probleme mit ihren Ampere haben. Es sind genug davon verreckt, dass man überall in einschlägigen Fachzeitschriften Berichte darüber findet, nicht nur PCGH.
Wie gesagt ziehst du dich hier an einem Bug hoch, der nicht mal eine Woche relevant war und jetzt schon über ein Monat alt ist.
Immer schön Team grün schlecht machen, damit Team rot besser dasteht, ne? ;)
Setz die rote Brille ab oder wirst du dafür von AMD bezahlt?

Dass die ersten Treiber innerhalb weniger Tage wegen der überbordenden Stromaufnahme und dem Sterben einiger günistigerer Netzteile ersetzt werden mussten, solltest selbst du mitbekommen haben...
Kannst du hierfür bitte einen Beweis liefern, dass die Netzteile wegen des Treibers verreckt sind? Davon lese ich zum ersten mal.
Mein 750W BeQuiet stemmt den Stromschlucker 9900K + 3090 mit OC, 2 HDDs, 2 SSDs, 5 Lüftern, RAM-Vollbestückung und bling bling. Im HWLuxx gibt es genug Leute mit 650W NTs und 3080/90 ohne Probleme.
Wenn ein Netzteil seine angegebene Leistung nicht schafft, dann ist nicht die angeschlossene Hardware schuld ;)

Es gab mittlerweile 4 Treiberupdates wegen teilweise kritischer Fehler.
Welche kritischen Fehler meinst du? Hatte nochn älteren drauf und keinen einzigen Fehler.
Treiberupdates beheben immer Fehler, dass ist der Sinn dahinter.
Kritisierst du gerade ernsthaft, dass sowas komplexes wie ein Treiber nicht Fehlerfrei ist? Junge junge...

Hast du überhaupt eine Nvidia Karte?
 
Zuletzt bearbeitet:
750W ist aber verdammt knapp bemessen. Fürs Gaming sollte es reichen, aber wenn alles auf Volllast läuft könnte es knapp werden.
 
Lief auf Volllast. In BF5 zieht die Karte 350W und die CPU im Boost teilweise 150W.
Das Netzteil verrichtet seinen Dienst ohne Probleme, hat ja auch eine Nennleistung von 750W.
Selbst mit GPU OC läuft es.
 
Kannst du hierfür bitte einen Beweis liefern, dass die Netzteile wegen des Treibers verreckt sind? Davon lese ich zum ersten mal.
Mein 750W BeQuiet stemmt den Stromschlucker 9900K + 3090 mit OC, 2 HDDs, 2 SSDs, 5 Lüftern, RAM-Vollbestückung und bling bling. Im HWLuxx gibt es genug Leute mit 650W NTs und 3080/90 ohne Probleme.
Wenn ein Netzteil seine angegebene Leistung nicht schafft, dann ist nicht die angeschlossene Hardware schuld ;)
Hat Igor doch getestet, vor dem Treiberupdate waren die Spitzen extremer, mit dem Update würde da irgendwas geändert und die hohen Spitzen gecuttet


Und 650W reichen immer noch nicht, wenn man in Richtung HighEnd Netzteil geht kann es sich ausgehen, aber normale Netzteile werden sich abschalten und mit Pech auch kaputt gehen. Von Billignetzeilen brauchen wir gar nicht erst anfangen, da habe ich schon mit ner Fury ein angebliches 1000W sterben sehen.
 
Hat Igor doch getestet, vor dem Treiberupdate waren die Spitzen extremer, mit dem Update würde da irgendwas geändert und die hohen Spitzen gecuttet
Ja logisch. Der Takt wurde um 50 MHz reduziert. Logischerweise fallen die Spitzen da niedriger aus, aber der GPU oder dem Treiber jetzt die Schuld für ein verrecktes NT zu geben ist Bullshit.
Wer sich eine 700-1800€ teure Grafikkarte kaufte und diese mit einem Chinaböller betreibt, ist selber schuld.
Es war von anfang an bekannt, dass ein ordentliches Netzteil von nöten ist.

Bevier behauptet die Karte/der Treiber wäre schuld und das ist einfach Quatsch! Wenn das Netzteil seine Nennleistung nicht liefern kann, dann ist nicht die verbaute Hardware schuld.
 
Ja logisch. Der Takt wurde um 50 MHz reduziert. Logischerweise fallen die Spitzen da niedriger aus, aber der GPU oder dem Treiber jetzt die Schuld für ein verrecktes NT zu geben ist Bullshit.
Wer sich eine 700-1800€ teure Grafikkarte kaufte und diese mit einem Chinaböller betreibt, ist selber schuld.
Es war von anfang an bekannt, dass ein ordentliches Netzteil von nöten ist.

Bevier behauptet die Karte/der Treiber wäre schuld und das ist einfach Quatsch! Wenn das Netzteil seine Nennleistung nicht liefern kann, dann ist nicht die verbaute Hardware schuld.
Sag Mal, möchtest du es nicht sehen oder ignorierst du einfach weil man gegen Nvidia nicht schlecht reden darf? Die Karte zog in der Spitze 600W, angegeben ist sie mit 320w. Wem soll man denn sonst die Schuld geben?
 
Sag Mal, möchtest du es nicht sehen oder ignorierst du einfach weil man gegen Nvidia nicht schlecht reden darf? Die Karte zog in der Spitze 600W, angegeben ist sie mit 320w. Wem soll man denn sonst die Schuld geben?
320W verbraucht die Karte. Die 600W sind Last-Spitzen. Zeig mir bitte eine einzige Karte, welche selbst mit Last-Spitzen die TDP nicht überschreitet. Eine einzige.

Mein 9900K müsste mit der 3090 alleine schon mein 750W NT sprengen. Erreichen zusammen Lastspitzen jenseits von 800W. Komisch, dass es nicht der Fall ist und das selbst mit OC nicht.
Wie kommt es, dass selbst 650W NTs funktionieren? Muss wohl Magie sein :ugly:

Eure Argumente sind echt der Wahnsinn. Irgendwo was aufgeschnappt und direkt wirds ungefiltert ins Forum gerotzt.
 
Zuletzt bearbeitet:
Ich kann mir nicht vorstellen das es nur an ihr (Lisa SU) bzw. einer einzelnen Person liegt wenn so ein großes Unternehem so einen Wandel hinlegt.
Es lag nicht nur an Ihr - Sie aber hat den richtigen und weitsichtigen Fokus gesetzt und einen Raja Koduri in die Wüste (zu Intel) gejagt - Ihm vorab 3/4 seines Teams, das an Vega gearbeitet hatte, abgezogen und der Entwicklung von RDNA in Zusammenarbeit mit Sony und ein paar Zen-Jüngern, zu Gute kommen lassen.
Eine Entscheidung die sicherlich nicht leicht war - schließlich hatte man auch in Raja´s Arbeit viel Geld investiert - aber zu damals gegebenen Zeitpunkt war einfach noch nicht das Geld da um in RDNA und CDNA aufzusplitten.
Damals sollte die Eierlegende-Wollmichsau her - was nahezu unmöglich war gegenüber den immensen Entwicklungsgeldern die Nvidia zur Verfügung standen. (zur Erinnerung - AMD´s Aktie 2016 noch bei ~2$ - heute bei ~85$)
Raja hat mit Vega letztendlich ein tolles Produkt für die gegebenen Möglichkeiten erschaffen.
Prophezeit, dass die Bandbreite immer wichtiger werden würde und einen HBCC, den Urvater von DirectML und RTX IO erschaffen, - aber nicht weit genug gedacht um besonders auch den Ansprüchen nach günstigen Plattformen für die Konsolenhersteller zu genügen.
Du kannst mit 1024GB/s per HBM 4096-Bit Interface realisiert einige Probleme erschlagen - nur ist es final nahezu unbezahlbar.
Workstation-Bereich vielleicht noch - aber nicht in Konsolen - die AMD im Grafikbereich doch so lang am Leben hielten..
Shared L1 Cache, Infintity Cache - das sind Ansätze welche die Technologie im gesamten nach vorn bringen.
Nvidia´s GDDR6X ist hier am Ende auch nur ein Tropfen auf den heißen Stein.
Teuer, auf einen Hersteller beschränkt, lediglich in 1GB Modulen verfügbar - das ist der falsche Ansatz.
RDNA - besonders RDNA2 wird letztendlich zu Tage fördern was einem Raja schon vor 3-4 Jahren bewusst war - wir brauchen schnellere Speicherzugriffe.
Wenn schneller Speicher aber so teuer ist und man dadurch viele Kompromisse eingehen muss, ist man gefordert mal quer zu denken.
Lass alle Shader auf alle L1 Cache Bereiche zugreifen - den L2 Cache aufbohren - so können bis zu 80% aller Anfragen die sonst bis in den lahmen VRAM müssten fünfmal schneller beantwortet werden, und zeitgleich ist man weniger davon Abhängig , dass dieser VRAM rasend schnell sein muss und womöglich noch wie bei Nvidia besondere Platinenlayouts voraussetzt.

Ich war großer Fan von Raja, aber ich denke heute manchmal er wusste einfach nicht wie er seine gedanklich richtigen Ansätze zu Gold machen kann. Zu sehr gefangen in seinen strukturellen Vorstellungen.
Schnellere Speicherzugriffe = schneller Speicher (in Form von HBM?)
Intel geht bei einigen neuen Produkten in Richtung HBM - ob das am Ende der richtige, bezahlbare Ansatz ist stell ich mal vorsichtig in Frage.

Wer bin ich? Kann ich tatsächlich einen Raja Koduri in Frage stellen?
Vermutlich nicht - doch ich hab da so meine Gedankengänge..

Eines muss man klar herausstellen im Hinblick auf seine Person - er war an RDNA, ob 1 oder 2, nie beteiligt!
 
Zuletzt bearbeitet:
Wir sprechen uns am Mittwoch wieder. ;-)

Ich denke, dass du sowohl die Leistung, als auch den Preis unglaubwürdig findest?

Also Leistung bist du zumindest mit der Prognose nicht sooo falsch gelegen.
Preise liegen nun doch recht weit daneben, dachte ich mir aber auch schon ;-)
Nach der Zen3 Ankündigung war es schon absehbar, dass AMD nicht mehr vorhat durch einen besonders niedrigen Preis attraktiv zu sein.
Selbstverständlich wird AMD die Karten nicht verscherbeln. Manche Tagträumer hier denken Sie bekommen 3090 Leistung für die Hälfte des Preises. Was ein Schmarn.
Mit sehr viel Glück sind die Leaks einigermaßen korrekt und die 6900XT ist manchmal schneller (DX11) und manchmal langsamer (DX12 und RT) als die 3080. Am Thron der 3090 wird sie in keinem Szenario kratzen.
Didn't age that well I guess ;-)
 
Also Leistung bist du zumindest mit der Prognose nicht sooo falsch gelegen.
Preise liegen nun doch recht weit daneben, dachte ich mir aber auch schon ;-)
Nach der Zen3 Ankündigung war es schon absehbar, dass AMD nicht mehr vorhat durch einen besonders niedrigen Preis attraktiv zu sein.

Tatsächlich haben mich die Preise auch sehr überrascht. Die 6800 ist m.E. zu teuer und die 6900XT ebenso.
Bei der 6900XT kann ich mir vorstellen, dass sie dafür nicht nur komplett funktionierende Chips, sondern auch richtig gute Chips nutzen, anders ist die gleiche Stromaufnahme bei mehr CUs zur 6800XT nicht wirklich erklärbar.
Damit die Karte dann auch nicht so häufig gekauft wird, muss sie halt teuer sein.
Wenn das Powerlimit nicht bei 300W, sondern bei 330W liegen würde, wäre die Karte vermutlich günstiger.
 
Zurück