• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr

C_17

Freizeitschrauber(in)
Ich finde schon das die RTX 3080 auch in RT überzeugen kann.
Ihr vergleicht eine 1200 € RTX 2080TI mit einer 699 € Karte, welche besser abschneidet.
Ich würde sagen gerade in 1440p hat sich da einiges getan in RT - zum ersten mal dreistellige FPS. Laut den Videos oben. 4K bringt doch nix, Leute holt euch 1440p und seid mega happy. :stick:

Ihr seid meist kritischer, als ein Krit in WoW.
 

Downsampler

Software-Overclocker(in)
195 Watt im Browser auf dem Desktop...heilige ************************. :-$

Und ich kaufe extra 2.5 Zoll Platten und SSDs mit niedrigem Stromverbrauch, um dort möglichst weit unter die 50 Watt zu kommen.
 

sandworm

Freizeitschrauber(in)
Ja von jetzt an wird auf die Verbrauchsmessungen von PC Komponenten die weniger verbrauchen als NVIDIA's Monstrositäten verzichtet.

Ob eine CPU nun 65 oder 200W zieht, ist von nun an drauf geschissen, das macht den Kohl auch nicht mehr Fett und Verbrauchsmessungen von SSD's sind eh der letzte Witz, gerade wenn man bedenkt das z.B. zwei in der Leistung an und für sich identische SSD's diejenige die 0.2W weniger dafür Verbraucht mit der Bestnote versehen wird und die andere leer ausgeht.
Auch bei Glühbirnen gebt uns bitte die alten Wolframdraht Glühbirnen zurück.

Auch bei Autos hab ich gerade meinen VW Lupo (3L/100Km) durch einen Pontiac Firebird Trans AM GTA (25L/100Km)
ersetzt, da mir die Höchstgeschwindigkeit 225 km/h statt den schnarchlangsamen 205km/h des Lupo wichtiger ist.
 

JoM79

Trockeneisprofi (m/w)
Mmm, ich liebe Autovergleiche.
Warum vergleichst du nicht nen 3L Lupo mit nem Golf GTI?
Bei 200km/h, da wird der Golf weniger verbrauchen als der Lupo.
 

Der_Hutmacher

Software-Overclocker(in)
Offenbar hat NVIDIA seinen Sweetspot im Preis gefunden. Die Grafikkarte ist wohl einfach noch zu billig 😁.
Ich werde nicht vor Ende 2021 upgraden, wenn das 1. Jahr mit der neuen Konsolen Generation verstrichen ist und man weiß wie "faul" die Entwickler (gell, Ubisoft) sind und welche konkreten Auswirkungen dies auf die Spielentwicklung auf den PC hat. Erfahrungsgemäß hat man immer einen Spike in den Anforderungen am PC zu Beginn der letzten Konsolen Gens. Und bis nicht klar ist ob das ganze Thema "die SSDs am PC sind langsamer als die Konsolen SSD" nur Marketinggeschwurbel ist, wäre es schlau abzuwarten. Ehrlich gesagt bin ich auch etwas enttäuscht, wenn man die Benchmarks zur 2080 Ti vergleicht steht die 3080 im optimalen Fall nur 20% besser da.
 

shaboo

Freizeitschrauber(in)
Ehrlich gesagt bin ich auch etwas enttäuscht, wenn man die Benchmarks zur 2080 Ti vergleicht steht die 3080 im optimalen Fall nur 20% besser da.
Keine Ahnung, was diese ständigen Vergleiche mit der 2080Ti sollen. Wie sowohl Modellbezeichnung als auch Preis verraten, ist die 3080 Nachfolgerin der 2080(S).

Klar kann man sich über Stromverbrauch/Hitze und Speicherausbau der 3080 beschweren, aber beim Leistungszuwachs gegenüber Turing gibt es bei dieser Karte und zu dem Preis nun wirklich nicht allzu viel zu meckern.
 

hoffgang

BIOS-Overclocker(in)
Keine Ahnung, was diese ständigen Vergleiche mit der 2080Ti sollen. Wie sowohl Modellbezeichnung als auch Preis verraten, ist die 3080 Nachfolgerin der 2080(S).

Nochmal:
Nvidia verbaut den "Dicken Chip" mit dem GA102 in 3080 und 3090.
Bei Turing war der TU 102 nur in 2080ti & der Titan verbaut.
Bei Pascal der GP102 in der TI und den Titanen
Bei den x080 Modellen war bislang der 104 Chip verbaut, ergo würden wir hier unterschiedliche Leistungsklassen vergleichen.

Das Preisargument greift ebenfalls nicht
2080 hatte dieselbe MSRP wie due 1080ti und die gleiche Leistung (~5%). Die Leistungssteigerung von ~25-30% pro Gen Sprung gabs bei Turing erst mit der 2080ti, diese hat halt 999$ MSRP.
Zeigt viel eher, dass die 2080ti für die Mehrleistung durch GenSprung zu teuer war, bzw. Turing das bekannte Preisgefüge gesprengt hat.

Oder anders gesagt, wer soll denn dann der Nachfolger zur 1080ti gewesen sein?
Die 2080 mit gleicher Leistung und gleichem Preis? Oder die 2080ti mit stärkerer Leistung und höherem Preis?
Wir haben Pre Turing den 102 für ~699$ bekommen, wir bekommen Post Turing den 102 für ~699$ (zumindest MSRP).

Und klar kann man argumentieren, der Leistungssprung von 2080 zu 3080 ist enorm.
Ist halt blöd, dass der Leistungssprung von 1080ti zu 2080 non S minimalst ausgefallen ist. Und das eine 3080 Kreise um eine 1080ti fahren sollte ist nicht bemerkenswert, sondern Minimalanforderung.

Das soll alles nicht Ampere schmälern, aber es soll mal in Relation setzen, wo Turing eigentlich stand.
Nein, die 3080 muss sich mit der 2080ti messen, alles andere ist eine Fehlbetrachtung.
 

shaboo

Freizeitschrauber(in)
Nein, die 3080 muss sich mit der 2080ti messen, alles andere ist eine Fehlbetrachtung.
Vielleicht in deinem Technik-Mikrokosmos, aber ganz sicher nicht im "normalen" Rest der Welt, der einfach nur Modellpalette, Preis und Leistung im Blick hat und dem - zu Recht - scheißegal ist, ob in seiner 699-Euro-Karte nun irgendein G-Eins-Null-x - oder ein G-Eins-Null-y-Chip sein Werkt verrichtet oder wie da jetzt genau die technische Historie dahinter ausschaut.

Die 1080 hatte einen MSRP von $599 und hatte als Nachfolger die 2080 mit MSRP $699 und nun die 3080, ebenfalls mit MSPR $699. Das ist doch glaskar und was da konkret für Chips drin stecken, das interessiert schlicht keine Sau, außer ein paar Nerds in Expertenforen. 1070 bis 3070 sind diesbezüglich ebenso klar und eindeutig.

Und alles über der xx80 ist halt nicht klar kategorisierbar. In diesem - seit Turing vierstelligen - Enthusiastenbereich gibt es dann halt schlicht keine klaren Vorgänger/Nachfolger-Beziehungen mehr. Klar ist die 3090 ganz offenbar nicht in dem Sinne Nachfolgerin der 2080Ti ist, wie es diese noch gegenüber der 1080Ti war, aber deswegen heißt sie halt auch 3090 und nicht 3080Ti. Eine 3080Ti kann ja auch - in einer mit der 2080Ti vergleichbaren Preisregion - durchaus noch kommen und wird dann auch ganz sicher als Nachfolgerin eben jener wahrgenommen werden, egal welches G man da verbaut.

Und selbst wenn man die 3080 unbedingt mit der 2080Ti vergleichen möchte und sich über "nur 20% Mehrleistung" beschweren möchte, gehört nun mal im gleichen Atemzug erwähnt, dass die 3080 dafür auch etliche hundert Euro billiger ist. Wer da von Enttäuschung spricht, wird halt in der Regel nur Kopfschütteln ernten ...
 

hoffgang

BIOS-Overclocker(in)
Sorry, aber deine Betrachtung geht halt an den nüchternen Fakten vorbei.

Du sagst alles über xx80 sei nicht klassifizierbar?
Wie sonderbar...

780ti hatte zusammen mit den Titanen den damals dicksten Chip, MSRP 699$
980 Ti hatte zusammen mit der Titan den damals dicksten Chip, MSRP 649$
1080ti hatte zusammen mit der Titan den damals dicksten Chip, MSRP, 699$
2080 hatte den nächstkleineren Chip, MSRP 699$
2080ti hatte zusammen mit der Titan den damals dicksten Chip, MSRP, 999$
3080 hat den dicksten Chip, MSRP 699$

Erkennst du da vllt ein Muster welches mit Turing gebrochen wurde?

Bis Turing war xx80ti sehr sehr eindeutig zu klassifizieren. Jetzt soll das nur wegen der 2080ti nicht mehr möglich sein?
Schau Dir doch mal die Mehrleistung von 780ti zu 980ti zu 1080ti an. Was fällt Dir auf? Richtig, es gab Mehrleistung zum gleichen Preis wie das Topmodell der Vorgängergen. Bei Turing zahlt man für diesen Sprung 300$ mehr MSRP.
Die 3080 bietet genau diesen Sprung zur 2080ti den andere Tis zu den jeweiligen Vorgängern geliefert haben.
Sie passt also exakt in die oben genannte Reihenfolge. Die 2080 jedoch nicht.

Vielleicht in deinem Technik-Mikrokosmos, aber ganz sicher nicht im "normalen" Rest der Welt, der einfach nur Modellpalette, Preis und Leistung im Blick hat und dem - zu Recht - scheißegal ist, ob in seiner 699-Euro-Karte nun irgendein G-Eins-Null-x - oder ein G-Eins-Null-y-Chip sein Werkt verrichtet oder wie da jetzt genau die technische Historie dahinter ausschaut.

Harte Ansage in einem Extrem Hardwareforum, aber gut, leider vernachlässigst du so komplett den Fakt, dass die 2080 genausoviel gekostet hat wie die 1080ti und lediglich minimal schneller war. Wenn du die 1080 mit der 2080 vergleichen willst, gerne. Dann ist aber logischerweise die 999$ MSRP 2080ti der Nachfolger zur 699$ MSRP 1080ti und schon vergleichen wir wieder dicksten Chip mit dickstem Chip... den nunmal auch die 3080 trägt.

Ich kann doch nix für Nvidias Preis- oder Produktgestaltung, nur sollte man die Fakten doch auch erkennen wenn sie auf dem Tisch liegen.

Und selbst wenn man die 3080 unbedingt mit der 2080Ti vergleichen möchte und sich über "nur 20% Mehrleistung" beschweren möchte, gehört nun mal im gleichen Atemzug erwähnt, dass die 3080 dafür auch etliche hundert Euro billiger ist. Wer da von Enttäuschung spricht, wird halt in der Regel nur Kopfschütteln ernten ...

Ne eigentlich hat man dann Recht, denn in den vorherigen Gens gabs mehr als 20% Mehrleistung zum selben oder nur minimal erhöhten Preis. Die 2080ti hatte sich ja die Mehrleistung über die 1080ti mit entsprechend höheren Kosten vergüten lassen.

Kopfschütteln sollten all jene ernten, welche nicht verstehen, dass die 2080ti einfach nur zu teuer war und ein Ausreißer nach oben (der sich hoffentlich nicht wiederholt).
 
Zuletzt bearbeitet:

Irian

Komplett-PC-Aufrüster(in)
Warum das? Schon mal was von 'Rücktritt vom Kaufvertrag' gehört? Von Arschkarte sehe ich da nix. Man kann das Ding an Tag 1 vorbestellen und dann noch ne Woche nach RTX3090 Launch zurückgeben. Sehe kein Problem. So eine Vorbestellung sehe ich eher als unverbindliche Reservierung.
Jo, ich hab mir nun auch eine 3080 mal bestellt, rechne aber nicht damit, dass die wirklich sehr bald verschickt würde, d.h. ich hab bequem Zeit, weiter Tests anzuschauen, etc. und mich nochmal anders zu entscheiden (den PC baue ich eh erst, wenn die Zen-3 Reveal vorbei ist). Sollte das nicht nötig sein, brauche ich gar nix tun. Ist doch praktisch ;-)
 

Der_Hutmacher

Software-Overclocker(in)
Jedem soll doch die Freude an der neuen Karte gegönnt sein aber es bringt nichts in den NVIDIA Defence Force Modus zu schalten. Und nein, nicht alle welche eine 2080 TI haben sind kleine Crybabies, welche jetzt nur Ihre Investition verteidigen wollen. Aber trotzdem jeder der sich etwas auskennt und jetzt nicht unbedingt aufrüsten muss, sollte noch etwas warten bis sich die aktuelle Konsolen Generation eingefahren hat. Mein persönlicher Dealbreaker ist nicht der Performancezuwachs, sondern das Speicherlimit. Jeder der maximal bis FHD oder vllt noch Wqhd zockt, reicht dass sicher noch gut aus. Aber ihr werdet noch große Augen bekommen, wenn ihr später Cyberpunk mit RTX On mit 4k (vlt. schon bei WQHD) zocken wollt.
 

deady1000

Volt-Modder(in)
Cyberpunk kommt eh mit DLSS2.0. Das reduziert den VRAM-Bedarf auf WQHD-Niveau. Glaubste ernsthaft Nvidia würde zulassen, dass Cyberpunk auf einer RTX3080 nicht perfekt läuft? Ich denke nicht.
 

Irian

Komplett-PC-Aufrüster(in)
Ich denke auch, bis das 10GB Ram-Limit wirklich Probleme macht, dürfte mind. noch rund ein Jahr ins Land gehen. Kann kommen, unter Umständen, vielleicht auch nicht. Aber in der aktuellen "heißen" Phase rechne ich da noch mit nix.
 

orca113

PCGH-Community-Veteran(in)
Habe mir jetzt die 3080 gekauft und ich muss sagen das ich gestern recht zufrieden war auch was die Speicherauslastung anging. Für meine Zwecke Okay und noch Luft nach oben. Die 2080 die ich vorher hatte mit 8 Gb wurde auch nicht immer ausgelastet. Selbst da war Luft nach oben. Zeigen muss sich das jetzt in Zukunft wenn 4K Monitore ins Spiel kommen. Da ist mir aber auch noch zu viel Geld für fällig. Momentan in meinem UWQHD und meinen Games komme ich mit den 10 Gb dicke aus.
 

Locutosz

Kabelverknoter(in)
Ich denke auch, bis das 10GB Ram-Limit wirklich Probleme macht, dürfte mind. noch rund ein Jahr ins Land gehen. Kann kommen, unter Umständen, vielleicht auch nicht. Aber in der aktuellen "heißen" Phase rechne ich da noch mit nix.
Man kann sich das aber auch schön reden. Ein Jahr ist schnell vorbei und dann kommen schon wieder neue Grafikkarten mit Mindest-RAM von 24Gb. ;)
 

Irian

Komplett-PC-Aufrüster(in)
Man kann sich das aber auch schön reden. Ein Jahr ist schnell vorbei und dann kommen schon wieder neue Grafikkarten mit Mindest-RAM von 24Gb. ;)

Kann, kann aber auch nicht... So schnell sind nun neue Engines auch nicht gebaut und man muß halt immer noch sagen, das größte Problem bei mehr als 10GB nötigem VRam wäre nicht, dass die Karte das nicht kann, sondern die Frage, mit was man den Entwickler verprügeln sollte, der dermaßen bei der Optimierung der Grafikengine versagt hat ;-)
 
G

gecan

Guest
muss hier noch was los lassen über nv´s ampere release verhalten bzw strategie, die dahinter stecken könnte !

ich vermute folgendes,

nach der rdna2 präsentation bzw test, wird sich herausstellen worauf nv eigentlich mit den frühen und mit aller macht, ampere mit der brechstange gezwungen hat, und zwar um ihre treue und naive kunden, vor allem die auf nv blind vertrauen, nämlich bzw natürlich um den verkauf zu maximieren, noch bevor rdna2 mit preisleistungs kracher einschlägt für die pc gamer !!!

weil nv freilich alles über rdna2 bescheid weiss, und das rdna2 perfekt auf den mark ankommen wird, deshalb eben mit der ampere mit ah und krach und frühen release gezwugen hat.

und was dann mit den verbrauch leistung sowie andere bling bling features von nv angeht, wollen wir erst garnicht anfangen, das sollte man lieber den nützer/verbraucher selbst überlassen ;)

ansonsten, hat sich nv mit der ampere release schon jetzt ein bitteren beigeschmack hinterlassen und es wird ein ganz grosser werden !!!

vor allem mit ihren angeblichen flaggshiff rtx3080, mit ihren sagen haften 10gb und über 330+ watt verbrauch, was eigentlich nicht mal 500 euro wert ist, sprich nv hat dadurch quasi seine kunden total abgezockt oder eher ver... ?

den im wahrheit, hätte fahrrad nur kette, also ohne elektrizität, so hätte ampere eigentlich nicht vor 2021 und direkt mit 16/20 gb vram erscheinen sollen, wenn nv ein seriöser firma und kunden freudlich gewessen wäre, aber das weinachtsgeschäft ist ja viel, viel wichtiger als kundenfreudlichkeit usw, so viel dazu !!!

am ende bzw irgendwann oder auch eines tages, wird sich herrausstellen, das nv die ampere für die totale abzocker architektur zur aller zeiten auf den markt gebracht hat.

bin gespannt wie das ganze dann mit nv enden wird, aufjedenfall wird das nichts gutes.
 
Zuletzt bearbeitet von einem Moderator:

Cook2211

Kokü-Junkie (m/w)
Ich persönlich sehe den Ampere Release in vielerlei Hinsicht als Desaster für Nvidia an, bei dem man sich wirklich nicht mit Ruhm bekleckert hat.

Auf der technischen Seite die kastrierte VRAM Menge bei der 3080 - zu wenig für eine leistungsstarke High-End Grafikkarte 2020. Der exorbitant hohe Stromverbrauch, der interessierte User ggf. dazu zwingt ein neues NT kaufen zu müssen. Die Problematik mit den Kondensatoren. All das stößt Usern zurecht sauer auf.

In Deutschland haben Firmen wie Amazon, Cyberport und zuletzt auch Caseking den Verkauf der 3080 bis auf Weiteres eingestellt. Man kann die 3080 also hier bei uns kaum noch käuflich erwerben, und selbst wenn dürfte man wohl bis 2021 warten müssen, bis man sie dann in Händen halten kann. Weltweit ist die Situation nicht anders. Aus wirtschaftlicher Sicht ist das ein Problem für NV. Seit dem Release und für das Restjahr hätte man GPUs ohne Ende absetzen können, wenn man denn genügend in der Hinterhand gehabt hätte, und weiter entsprechende Stückzahlen würde produzieren können. Stattdessen werden die GPUs scheinbar nur tropfenweise ausgeliefert und so mancher User dürfte wohl zur Konkurrenz greifen, sofern Navi konkurrenzfähig ist und zumindest etwas besser lieferbar sein sollte. Am Ende könnte NV schlimmstenfalls der große Verlierer sein.
Wobei NV dann immer noch die treuen Fans im Rücken hätte, die so oder so immer zu Grün greifen, komme was da wolle...

Dann muss man sich schon auch fragen wie blauäugig die Verantwortlichen bei NV eigentlich sind? Da wird mit viel Tamtam eine 3080 vorgestellt, die eine 2080Ti ziemlich alt aussehen lässt, und dann kündigt man diese auch noch zu einem günstigen Preis von 699 $/€ an. Ja was haben die bei Nvidia denn gedacht was dann passieren würde???? Jedem Außenstehenden war klar, dass das einen riesigen Run auf diese Grafikkarte auslösen würde. Aber anstatt einsichtig damit umgehen, und einzugestehen, dass der Launch in die Hose gegangen ist und man womöglich verfrüht released hat, wodurch die meisten willigen Käufer in dir Röhre gucken und in den nächsten Monaten keine 3080 erhalten werden, schwadroniert Huang lieber über den "Ampere Faktor" und ein "Phänomen". Für mich unverständlich sich selber bzw. die eigene Firma unter diesen Gegebenheiten zu feiern. Etwas mehr Empathie gegenüber den Kunden wäre da mMn der richtigere Weg gewesen.
Auch wäre doch sicherlich eine ausdrückliche Entschuldigung seitens NV dafür angebracht, dass die meisten User in den nächsten Monaten keine FE für die versprochenen 699 erhalten werden (wenn überhaupt). Doch nichts geschieht.

Aus diesen Gründen komme ich für mich persönlich zu dem Fazit:
NV, das war/ist ein vollkommen verhunzter Release, der sich in meinen Augen auch nicht mit Floskeln wie "Phänomen" schönreden lässt.
 
Zuletzt bearbeitet:

hoffgang

BIOS-Overclocker(in)
NV, das war/ist ein vollkommen verhunzter Release, der sich in meinen Augen auch nicht mit Floskeln wie "Phänomen" schönreden lässt.

Leider ja.
Aber wenigstens sollen laut Igor massig 3070 einen Tag nach RDNA2 Präsentation verfügbar sein. Kann sich dann jeder überlegen ob er da direkt zuschlägt, oder die Tests von RDNA2 abwartet.
 
G

gecan

Guest
von einer verkrüppeltes 8gb vram gpu, sollte man lieber die finger weg lassen :fresse:

den eine 3070 mit ca 2080ti leistung dabei aber nur mit 8gb vram ?

ohje ohje.

keine ahnung was sich huag mit den 29.10 bezwecken will, aber lustig wird es alle mal werden.

Edit:

vll überrascht nv und bringt die 3070 direkt mit 16gb vram, da die 3070 mit nur 8gb vram, einfach zu armselig gegenüber rx 6800xt mit 16gb vram ausehen würde :rolleyes:
 
Zuletzt bearbeitet von einem Moderator:

Duvar

Kokü-Junkie (m/w)
RIP Nvidia?

2.png
 

qu1gon

Kabelverknoter(in)
@PCGH-Redaktion

Zitat: "Passend dazu arbeiten wir gerade an einer großen Messreihe, welche das Thema Grafikspeicher mit Fokus auf 10 und 11 GiByte Kapazität beleuchtet." Gibts da schon den Artikel oder?
 
G

gecan

Guest
wird nvidia nun die 3080ti 20gb und 3070ti 16gb auf tscm 7nm fertigen, damit man den verbrauch unter kontrolle hatt und dadurch auch ca 10% mehr leistung rauszuholen ?

ja wird so kommen !
 
Zuletzt bearbeitet von einem Moderator:

biosat_lost

Komplett-PC-Aufrüster(in)
Also 330 Watt Realverbrauch, den man auf einer FE auf? 375 oder~380Watt steigern kann, sicher ohne Volt Modding?????
Wo soll das eigentlich hinführen, mal die Tatsache, dass man ja nun auch Recheneinheiten im Rechner hat, die auf dedizierte KI Leistung, also auf die KI Leistung von GPU-Compute Serverhallen, zurückgreifen kann, bei Seite!!!???

Ich denke, dass man das nicht mal kritisch betrachten muss, um zu denken, dass sämtliche Vorsätze die irgendetwas mit Vernunft bezüglich Ökologie und dem sicheren Umgang mit KI Rechenleistung zu tun hatten, einfach ausgeblenet wurden und nun irgendwie so getan wird als hätte es derartiges nie gegeben.

Da passt es ja auch gut, dass neue "effizientere" also stärkere PSU´s eingeführt werden, quasi von Intel vorgegeben und auf den Grafikkarten neue Stecker eingeführt werden bei denen niemand ohne weiteres noch weiß, wieviel Strom da maximal durchfließen kann, nur dass es ne Menge ist ??!
Tja was will man machen wenn das halt so ist, wenn die Industrie und der Markt der haltlosen"" Unvernunft"" nicht nur freie Bahn lassen, sondern sie sogar als Standard vorgeben!!??
Man kann wohl nur hoffen, dasss es nvidia schafft durch den etwas feineren Fertigungsprozess der bei TSMC( erstmalig von mir richtig geschieben übrigens) die Sache wieder etwas zu kompensieren.
Aber aus Erfahrung weiß man ja, dass jedwedge Effizienz aus ökonomischer Sicht, sehr schnell in Mehrleistung umgewandelt wird und schon ist die Messlatte an erwarteter Leistung wieder ein Stückchen höher gelegt.

Also ich will sicher kein Spielverderber sein und werde sicher diesen Wahnsinn auch, oder sogar im höchsten Maße betreiben, sobald es mir möglich ist. Trotzdem hab ich das Gefühl, dass das Ganze etwas übertrieben unmoralisch erscheint???!!

Aber das ist kein Schuh den sich die Gamer oder Harware User anziehen sollten, sondern die Industrie?
Keine Ahnung, in der Vergangenheit, die ja nicht mehr existent ist, hat man sich wer weiß wie aufgeregt wenn ein max. TDp von 250Watt überschritten wurde. Das war doch ein Rahmen an den sich jeder Chiphersteller wie Boardpartner unbedingt halten musste, der das Maximun an dem darstellte was noch irgendwie vertretbar ist.

Jetzt interessiert es plötzlich niemanden mehr, wenn das im hohen Bogen überschritten wird. Eine Asus RTX 3080 STrix hat von grundauf 3 8polige PCIe Stecker, das sind 525 mögliche Watt die da durchgehen können.

Hat man die neuen Stecker eingeführt um dem absurden Anblick von 4 oder sogar 5 x8 poligen PCIe Steckern vorzubeugen??

Also ich werde mir sicher auch sowas kaufen und dabei auch sicher darauf achten, dass die Karte möglichst viele 8-polige PCIe Stecker hat, aber dass wir alle schon verrückt sind das will ich ja wenigstens mal gesagt haben, wo es ja eh keinen interessiert
 
Zuletzt bearbeitet:
G

gecan

Guest
von einer verkrüppeltes 8gb vram gpu, sollte man lieber die finger weg lassen :fresse:

den eine 3070 mit ca 2080ti leistung dabei aber nur mit 8gb vram ?

ohje ohje.

keine ahnung was sich huag mit den 29.10 bezwecken will, aber lustig wird es alle mal werden.

Edit:

vll überrascht nv und bringt die 3070 direkt mit 16gb vram, da die 3070 mit nur 8gb vram, einfach zu armselig gegenüber rx 6800xt mit 16gb vram ausehen würde :rolleyes:


da aus der 3070 mit 16gb vram nichts geworden ist und jetzt bald eine 3090 mit 12 gb vram nachgeschoben wird, muss ich sagen, das sowas lustiges noch nie in der gpu geschichte gab !!! :lol:

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet von einem Moderator:

Olstyle

Moderator
Teammitglied
[...]
Also ich werde mir sicher auch sowas kaufen und dabei auch sicher darauf achten, dass die Karte möglichst viele 8-polige PCIe Stecker hat, aber dass wir alle schon verrückt sind das will ich ja wenigstens mal gesagt haben, wo es ja eh keinen interessiert
"Ich habe nicht vor mich zu ändern aber finde Alle müssten sich eigentlich ändern."
Ist das so richtig zusammen gefasst?

Tatsächlich gibt es mittlerweile Grenzwerte für Bürorechner, aber eben nicht für "Exoten" wie die Gamingmaschinen. Zudem bleibt dir zumindest die Wahl deinen Strom aus Quellen zu beziehen die weniger dramatische Auswirkungen haben (ja du hast sogar die Wahl für dich die Entscheidung zu treffen welcher genauen Variante du diese Eigenschaft am ehesten zutraust) als der deutsche Standardmix.

Zum Punkt dass man sich früher mehr über die TDPs aufgeregt hat:
Was den Kunden am Ende gestört hat war die Lautstärke. Die GF5 z.B. sind berühmt geworden weil sie so gerauscht haben, nicht wirklich wegen des absoluten Verbrauches.
 

biosat_lost

Komplett-PC-Aufrüster(in)
"Ich habe nicht vor mich zu ändern aber finde Alle müssten sich eigentlich ändern."
Ist das so richtig zusammen gefasst?
Eher nein, ich erwarte von niemandem, dass er sich irgendwie ändert, schon gar nicht wenn ich es nicht tue oder nicht kann, aber auch so nicht. Also ich glaube nicht, dass das irgendwen interessiert was ich mache und noch weniger dass sich irgendwer ein Beispiel daran nehmen könnte, sollte. Hab doch nur ein bisschen Spaß machen wollen. Das war nicht so ernst gemeint.
 
Oben Unten