Radeon RX 6000: AMD zeigt eigene Benchmarks

Ich hab mir ~2015 einen Gsync Monitor gekauft...
Den werd ich weder verkloppen noch ersetzten und solange der seinen Dienst tut bin ich nunmal ein wenig an Nvidia gebunden.
An Deiner Stelle würde ich mir einen neuen Monitor anschaffen (297 €), und ne Big Navi.
Beides zusammen wird genau so viel kosten wie ne 3080 mit 20 GB (bei vermutlich 350 Watt).


MfG Föhn.
 
Wenn die native Auflösung reduziert wird nennst du das Fortschritt :ugly: ?? Glückwunsch, kauf dir ne Konsole du einzig wahrer "Gamer" :lol:.
Sorry aber ich kann dich hier im Forum nicht mehr Ernst nehmen. Totaler Schwachsinn was du hier schreibst. Ich schreibe über Bildqualität und Ergebniss, du kommst mir an mit reduzierung der Pixel. Es ist eine KI, die das Bild wieder vervollständigt und nicht simpel hochskaliert. Die AI wird durch 16K Bilder trainiert. Anscheinend bist du von denen die die Mondlandung als Fake bezeichnen. Willkommen im Jahr 2020.
 
Die mögliche Stromaufnahme von 375 Watt !! sagt alles .

Ist bei Amd Karten immer dasselbe , mit Takt und der Strom Keule ihre Defizite auf kosten der Kunden zu minimieren :schief:
 
Die Situation rund um die 3080/3090 scheint sich nicht zu bessern. Es sieht so aus als hätte Cybeport die Karten sogar wieder aus dem Sortiment genommen. Zumindest bekommt man aktuell keine angezeigt wenn man sie in die Suchmaske eingibt. Kann aber natürlich auch nur ein temporärer Fehler der Seite sein.
So oder so ist die Nicht-Verfügbarkeit der 3080 aber eine riesige Chance für AMD, Boden auf NV gutzumachen, sofern die Leistungsdaten der kommenden GPUs überzeugen und sie - anders als die 3080 - dann auch lieferbar sind.
Ich drücke AMD jedenfalls ganz feste die Daumen.
 
Vielleicht verknappt NV die Verfügbarkeit der 3080 auch künstlich um genug Bestand für ne 3080TI zu haben. Hab ich hier im Forum von irgendwem gelesen und klingt für mich auch plausibel.
 
Die mögliche Stromaufnahme von 375 Watt !! sagt alles .

Ist bei Amd Karten immer dasselbe , mit Takt und der Strom Keule ihre Defizite auf kosten der Kunden zu minimieren :schief:
Mindestens, ich tippe ja bei den darauf folgenden Custom Modellen eher auf ca. 450W bei knapp 3070 Leistung. Da macht es NVIDIA doch deutlich besser und limitiert den Verbrauch genau dort wo es sinnvoll ist, so das bei leicht OC Versionen der Boardpartner 420 /440W anfallen, sozusagen die neue grüne Welle:devil:, oder besser Revolution.
(Es wird so lange mit Hammer und Sichel auf der Karte rumgeklopft bis sie am Ende bei 110°C schmilzt, oder falls sie es doch bei einer 50/50 Aktion überleben sollte 5% schneller als eine Stock rauskommt.
Für die ersten 50% ist es allerdings auch kein Beinbruch weil dann einfach Backstunde mit Jensen angesagt ist und die Karten
wieder frisch direkt aus dem Offen, schön warm und gut duftend in Empfang genommen werden können.):lol:
Jensen back2.png
)

Aber zurüch zum Thema, was ist wenn es sich bei der erwähnten Karte nicht um eine 5900XT / XTX sondern nur z.B. um eine 5900 gehandelt hat und eine XT / XTX am Ende 5 -10% vor einer 3080 bei nur 275W liegen wird?

Und selbst wenn es sich um eine 5900XT (XTX) handelte, waren die Taktraten sicher noch nicht final und am Treiber
wird noch auf Hochtouren gearbeitet, daher ist da noch so einiges zu holen bis man da wirklich in NVIDIAs Sphären
was den Verbrauch betrifft ankommen wird.
Mit anderen Worten wenn es am Ende auf eine Pattsituation zwischen einer OC 3080, mit bis zu 420W und einer
5900 (XT/XTX) mit 275W - 325W hinauslaufen wird, bin ich dir bei der anschließenden Berechnung bezüglich der Effizienz der beiden Karten gerne behilflich.

Mal davon abgesehen das eine 16GB Karte im Vergleich zu einer 10GB Karte auch gerne 20W mehr Verbrauchen darf (Du weißt schon Vergleichbare Bedingungen und so nebensächliches Gerede)
 
Zuletzt bearbeitet:
An Deiner Stelle würde ich mir einen neuen Monitor anschaffen (297 €), und ne Big Navi.
Beides zusammen wird genau so viel kosten wie ne 3080 mit 20 GB (bei vermutlich 350 Watt).


MfG Föhn.

Ich soll 330€ ausgeben um von WQHD 144Hz auf 4k 75Hz zu wechseln, nur damit ein BigNavi Kauf Sinn ergibt?
:ka:
 
Ich soll 330€ ausgeben um von WQHD 144Hz auf 4k 75Hz zu wechseln, nur damit ein BigNavi Kauf Sinn ergibt?
:ka:
O.K. hab erst in späteren Posts von Dir gelesen dass Du auf 144 Hz unterwegs bist.
Den 144 Hz Monitor im Link gab es die letzten Tage für 390 €.


Sinn, sei jetzt mal dahingestellt. Was meiner einer lediglich damit sagen wollte ist :
Bevor ich mir für 1200 € eine 3080, kaufe ICH mir lieber eine Big Navi für 800 € und eben einen Free Sync Monitor dazu.
Denn dann bist schon mal bei der 4080 für 1800 € NICHT schon wieder "gezwungen" diese wegen G-Sync zu kaufen.
Das war der "Olympische Gedanke" dabei ... ;-)

MfG Föhn.
 
Die mögliche Stromaufnahme von 375 Watt !! sagt alles .

Ist bei Amd Karten immer dasselbe , mit Takt und der Strom Keule ihre Defizite auf kosten der Kunden zu minimieren :schief:

Das ist lediglich die MAXIMAL MÖGLICHE Stromaufnahme mit den beiden 8-Pin Steckern! Mehr nicht.
Ein 8-Pin Stecker kann 150W liefern.
Nebenbei gabs doch schon Leaks die sagen, dass die GPU-Power bei 228W liegt
 
Stimmt. Aber die 8GB Speicher weniger und auch deren Spannungsversorgung werden den Verbrauch schon etwas unter 320W (meine Annahme) fallen lassen
 
Deswegen lacht nVidia?

Weil sie Konkurrenz bekommen und Marktanteile vermutlich bröckeln?

Unwahrscheinlich.
Nein, weil es vorher keine gab.

Das es Konkurrenz gibt, ist normal, das weiß jeder. Das es aber von AMD über Jahre keine gab, da wird man sich drüber schlapp lachen.
Wir bekommen, jetzt gerade vielleicht endlich wieder eine Normalsituation im Markt, wenn AMD wie versprochen liefern kann.

Also ja.
 
Zusammenfassung des Threads:

Benchmarks von Nvidia: LÜGE!
Benchmarks von AMD: WAHRHEIT! Die können gar nicht lügen einseinself!

Dabei gibt es noch nicht mal echte Benchmarks und alle sind super beeindruckt :D
Warum verlagert Ihr die Diskussion nicht auf den Zeitpunkt wo man die Karten auch mal testen kann?

Ansonsten: Jeder 3080 Käufer der abspringt ist mir auch recht, rutsche ich in der Warteliste weiter nach vorne.
Win / Win.
 
Realistisch betrachtet waren Nvidias Vorankündigungen im Bereich Leistung tatsächlich ziemlich genau. Die 3070 hat die 2080Ti ja tatsächlich auf +-1% getroffen.
 
Realistisch betrachtet waren Nvidias Vorankündigungen im Bereich Leistung tatsächlich ziemlich genau. Die 3070 hat die 2080Ti ja tatsächlich auf +-1% getroffen.
Man muss auch einfach sehen das man die Karten direkt nach der Ankündigung testen konnte.
Falschinformationen der Leistung betreffend wären Nvidia mächtig auf die Füße gefallen, da man dies direkt hätte entlarven können.

AMD bleibt das noch lange Zeit schuldig.
Und sie wissen das man die Leute einfach mit größeren Video RAM Zahlen ködern kann.
Funktioniert ja auch vortrefflich :D
 
Zurück