AMD stellt klar: Radeon RX 7000 ohne 12VHPWR-Stecker

vielleicht damit man noch ein "tolles feature" exklusive für eine 4090Ti übrig läst ? :devil:

Ich schätze nicht, die Sache ist für diese Generation vermutlich erledigt. Man man muß wohl auf die RTX 5000er warten, wenn es DP 2.1 und Nvidia sein muß.

(Alternativ kann man sich natürlich eine Intelkarte einbauen und das Signal darüber ausgeben)
 
Es ist wie immer... Nvidia haut eine neue GPU Serie raus, und die ganzen Medien, Hater, Pseudo Wissenschaftler und die Social Media Hypekultur, suchen irgendetwas was sie an die grosse Glocke hängen können.

bei der 2080 Ti hat man plötzlich überall von "auffällig vielen" Berichten über Ausfälle und Probleme berichtet.
bei der 3090 waren es angeblich die GDDR6X Speicher die "Massenhaft" Sterben und verbrennen.

Und jetzt bei der 4090 sind es halt die Stecker.

Es hat sogar recht lange gedauert, bis man entlich etwas gefunden hatte, worüber man nun einen Hype auslösen kann.

Warten wir doch erstmal ab. Aber ich würde wetten, dass der Stecker auch in der nächsten GPU Serie von Nvidia noch zum Einsatz kommt.
Und vermutlich interessiert es dann niemand mehr.

Aber keine Angst. Auch bei RTX 5000 wird man wieder ein "Problem" finden worüber alle berichten können.
 
Es ist wie immer... Nvidia haut eine neue GPU Serie raus, und die ganzen Medien, Hater, Pseudo Wissenschaftler und die Social Media Hypekultur, suchen irgendetwas was sie an die grosse Glocke hängen können.

bei der 2080 Ti hat man plötzlich überall von "auffällig vielen" Berichten über Ausfälle und Probleme berichtet.
bei der 3090 waren es angeblich die GDDR6X Speicher die "Massenhaft" Sterben und verbrennen.

Und jetzt bei der 4090 sind es halt die Stecker.

Es hat sogar recht lange gedauert, bis man entlich etwas gefunden hatte, worüber man nun einen Hype auslösen kann.

Warten wir doch erstmal ab. Aber ich würde wetten, dass der Stecker auch in der nächsten GPU Serie von Nvidia noch zum Einsatz kommt.
Und vermutlich interessiert es dann niemand mehr.

Aber keine Angst. Auch bei RTX 5000 wird man wieder ein "Problem" finden worüber alle berichten können.
Interessant, ist mir alles entgangen. Einen entschlossenen Kunden juckt das eh nicht.
 
Es ist wie immer... Nvidia haut eine neue GPU Serie raus, und die ganzen Medien, Hater, Pseudo Wissenschaftler und die Social Media Hypekultur, suchen irgendetwas was sie an die grosse Glocke hängen können.
Stimmt.. die 2080 TI war ja auch am Anfang eine der ersten Karten der GPU Serie.. moment.. halt.. war sie nicht...
Bei der 3090.. hmm... und all die anderen Karten, die zeitgleich gestartet sind? Wurde da was negatives berichtet? (mal abgesehen vom absurden Preissprung bei den 2000ern, der bei den 3000ern nicht mal wirklich gemildert wurde, sondern nur scheinbar.
 
Stimmt.. die 2080 TI war ja auch am Anfang eine der ersten Karten der GPU Serie.. moment.. halt.. war sie nicht...
Bei der 3090.. hmm... und all die anderen Karten, die zeitgleich gestartet sind? Wurde da was negatives berichtet? (mal abgesehen vom absurden Preissprung bei den 2000ern, der bei den 3000ern nicht mal wirklich gemildert wurde, sondern nur scheinbar.

Lastspitzen bei der 3000er ;).

Ich entspanne mich und betreibe meine Karte ohne OC (was ich bei der 4090 für die Ursache halte) und gucke was passiert. Notfalls gibts ne Neue und fertig. Aber der Schritt von AMD ist zu begrüßen...lieber 5 x 8 Pin als dieser Anschluss. Diese Kabelkacke sieht auch echt mies aus.
 
vielleicht damit man noch ein "tolles feature" exklusive für eine 4090Ti übrig läst ? :devil:
Das muss man schon verstehen, Nvidia macht sich da nichts aus Zukunftssicherheit, ist ja schließlich kein proprietärer Anschluss. Würde mich nicht wundern, wenn Nvidia auch da irgendwann vorpreschen und nur noch einen NvGeLightningForRT-Anschluss verbauen und die Monitor- und TV-Hersteller quasi zur Unterstützung zwingen würde. :D
 
Es ist wie immer... Nvidia haut eine neue GPU Serie raus, und die ganzen Medien, Hater, Pseudo Wissenschaftler und die Social Media Hypekultur, suchen irgendetwas was sie an die grosse Glocke hängen können.

bei der 2080 Ti hat man plötzlich überall von "auffällig vielen" Berichten über Ausfälle und Probleme berichtet.
bei der 3090 waren es angeblich die GDDR6X Speicher die "Massenhaft" Sterben und verbrennen.

Und jetzt bei der 4090 sind es halt die Stecker.

Es hat sogar recht lange gedauert, bis man entlich etwas gefunden hatte, worüber man nun einen Hype auslösen kann.

Warten wir doch erstmal ab. Aber ich würde wetten, dass der Stecker auch in der nächsten GPU Serie von Nvidia noch zum Einsatz kommt.
Und vermutlich interessiert es dann niemand mehr.

Aber keine Angst. Auch bei RTX 5000 wird man wieder ein "Problem" finden worüber alle berichten können.
So ist das nunmal als Marktführer. Da kann man nicht nur das Positive mitnehmen.
Entsprechend mehr verkaufter Produkte steigt auch die Wahrscheinlichkeit, dass bei manchen etwas schief läuft und das darüber berichtet wird.
Sorry, aber das ist ganz simpel und logisch. Wenn Fans der Marke damit nicht klarkommen, sollten diese hoffen, dass die Produkte in Zukunft seltener gekauft werden, dann wird auch weniger berichtet (nun mal auch über teils negative Erscheinungen). ;)
 
Lastspitzen bei der 3000er ;).
Ohne die vielen Berichte hätte Nvidia allerdings keine BIOS Updates verteilt und auch keine neue Revision der Karten gebracht und die Lastspitzen wären geblieben... das haben damals viele Netzteile nicht vertragen.

Ich entspanne mich und betreibe meine Karte ohne OC (was ich bei der 4090 für die Ursache halte) und gucke was passiert. Notfalls gibts ne Neue und fertig. Aber der Schritt von AMD ist zu begrüßen...lieber 5 x 8 Pin als dieser Anschluss. Diese Kabelkacke sieht auch echt mies aus.

Da hat Intel echt einen miesen Standard initiiert.. und Nvidia sprang halt drauf...
Da hat schlicht wer vergessen, dass PC Gehäuse in den seltensten Fällen so gebaut sind, dass die Stecker ideal drin bleiben... von Kabelmanagement mal ganz zu schweigen...
Die 30 Steckzyklen.. ok... Mist, aber Intels LGA Sockel sind für noch weniger zertifiziert.
 
Es ist wie immer... Nvidia haut eine neue GPU Serie raus, und die ganzen Medien, Hater, Pseudo Wissenschaftler und die Social Media Hypekultur, suchen irgendetwas was sie an die grosse Glocke hängen können.

bei der 2080 Ti hat man plötzlich überall von "auffällig vielen" Berichten über Ausfälle und Probleme berichtet.
bei der 3090 waren es angeblich die GDDR6X Speicher die "Massenhaft" Sterben und verbrennen.

Und jetzt bei der 4090 sind es halt die Stecker.

Es hat sogar recht lange gedauert, bis man entlich etwas gefunden hatte, worüber man nun einen Hype auslösen kann.

Warten wir doch erstmal ab. Aber ich würde wetten, dass der Stecker auch in der nächsten GPU Serie von Nvidia noch zum Einsatz kommt.
Und vermutlich interessiert es dann niemand mehr.

Aber keine Angst. Auch bei RTX 5000 wird man wieder ein "Problem" finden worüber alle berichten können.
Über solche Kunden freut sich nVidia am meisten...
 
So ist das nunmal als Marktführer. Da kann man nicht nur das Positive mitnehmen.
Entsprechend mehr verkaufter Produkte steigt auch die Wahrscheinlichkeit, dass bei manchen etwas schief läuft und das darüber berichtet wird.
Sorry, aber das ist ganz simpel und logisch. Wenn Fans der Marke damit nicht klarkommen, sollten diese hoffen, dass die Produkte in Zukunft seltener gekauft werden, dann wird auch weniger berichtet (nun mal auch über teils negative Erscheinungen). ;)
Ich komme gut damit zurecht.
Aber ich bin auch einfach bisschen zurückhaltender und vorsichtiger gegen solche "News"

Ich wollte nur sagen, dass man diese Einzelfälle nicht übergewichten sollte.
 
Das erinnert alles ein wenig an das "New World Drama" wo 3090 abgeraucht sind. Betroffen waren letztlich nur sehr wenig Karten. Aus den 2,3 oder vll. 4 Fällen wird jetzt ein TamTam gemacht. :O Wie viele 8 Pin oder gar Molex sind wohl über die Jahre weggeschmolzen? Wie viele 24 Pin ATX oder 8 Pin EPS? Ich möchte es gar nicht erst wissen.

Aris hat gerade mal das mit dem "Bend Cable" selber getestet. Zumindest bei ihm ist rein gar nichts passiert. Sicherlich mag das bei einem Kabel/Adapter der einen Produktionsfehler hat deutlich anders ausgehen. Aber da liegt die primäre Ursache dann wohl wo anders.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Wird wohl auch psychologisches Marketing gewesen sein.
Der Platz auf dem PCB ist nicht unendlich. 3 bzw. 4 Connector nehmen nun mal mehr Fläche ein als ein einzelner. Den 12VO Connector wollte ursprünglich Intel schon haben. NVidia ist auf den Zug aufgesprungen, weil es für sie eben auch Vorteile liefert. Am Ende sind wir dann bei ATX3.0 + 12VHPWR gelandet.

Und für die AIBs, die ihre GPUs mit "Fuses" bestücken, ist es auch einfacher. Da brauchst Du nicht jeden Connector "absichern".
 
Puh also hat man mit sparsamen GPUS oder Onbard hat man so ein Problerm mit wegschmelzen der Kabel ja nicht.Also die haben nen echten Vorteil und nicht nur Stromsparen alleine.Ich setzte in Zukunft auf Onbaord GPU.Kann dann PCI Express abschalten und spare Strom und reduziere noch weiter die Abwärme.Das wird sich also noch zeigen das ganze.
 
Was den AMD keine eigenen RX 7000er Flame Editions wie NV es vormacht :-)

Na ich hoffe jedenfalls AMD macht es auch bei den Preisen besser.
Das halte ich für nicht wahrscheinlich, siehe aktuelle Generation.
Puh also hat man mit sparsamen GPUS oder Onbard hat man so ein Problerm mit wegschmelzen der Kabel ja nicht.Also die haben nen echten Vorteil und nicht nur Stromsparen alleine.Ich setzte in Zukunft auf Onbaord GPU.Kann dann PCI Express abschalten und spare Strom und reduziere noch weiter die Abwärme.Das wird sich also noch zeigen das ganze.
Wenn du nur einen Office PC brauchst :D
 
Zurück