Nun 3h/ tag beim durchschnittsgamer finde ich sehr unrealistisch. Denn der durchschnitts gamer hat auch andere hobbies. Dass spieler welche esports titel spielen ca 3h pro tag gamen ist verständlich. aber der durchschnittsgamer ist wohl ziemlich sicher unter 2h. Zudem bei esports titeln ist die grafikkarte nicht selten nicht 100% ausgelastet. Meiner rx 480 schafft die 144fps fullhd in dota 2 ohne probleme und ja ich begrenze bei 144fps da mein bildschirm da bottle neckt. die Rx 480 wird offt nicht gefordert denn trotz blowerstyle kühler ist sie nicht hörbar.( bei pubg röhrt sie recht laut). Da ich aber zu 90% der zeit dota spiele und auch sonst eher wenigerfordernde titel spiele wie z.b. civ v (bei 60fps limitiert im wattman) wird sie nie die unter vollast benötigten 200W+ erreichen.
Aber damit sparst du keinen Strom, denn niemand wird sich die FPS seiner Midrange GPU begrenzen um Strom zu sparen, dafür reichen die FPS einfach nicht aus.
Aber scheinbar spielen AMD User nur Fifa oder Solitär und wollen ihre GPU´s neuerdings nicht auslasten.
Ja, für den Käufer (den Jugendlichen) fällt der Posten aus der Rechnung raus. Die Stromkosten entstehen trotzdem, müssen bei der Kaufentscheidung aber natürlich nicht berücksichtigt werden, wenn man sie nicht selbst zahlt.Achso, weil jugendliche/Kinder der Familie den Strombedarf einer Karte quasi nicht selbst bezahlen, fällt der an der Stromabrechnung dann raus? Wusste ich nicht.
Leute fallen raus, bei denen Stromkosten monatlich fix sind? Das ist ja interessant, ich dachte immer diese Fixkosten beruhen auf einer Berechnung der einzelnen tatsächlichen Vebräuche.
Also wir erfahren von dir also im ersten Teil deines Beitrages die urban legend, Stromkosten machen nichts, solange das die Eltern bezahlen und wenn man fixe Stromkosten hat? Wow.
Warum sollte man da knauserig sein? Du willst doch deine GPU auch so günstig wie möglich abstauben, oder nicht?
Aber laufende Kosten schaut der Gamer wohl nicht.
Tja, magst du nicht glauben, sind aber nun mal relativ verlässliche und repräsentative Zahlen.Nun 3h/ tag beim durchschnittsgamer finde ich sehr unrealistisch. Denn der durchschnitts gamer hat auch andere hobbies. Dass spieler welche esports titel spielen ca 3h pro tag gamen ist verständlich. aber der durchschnittsgamer ist wohl ziemlich sicher unter 2h.
Und die grüne Monopol-Fraktion understützen ? Nein Danke
Ich habe mir 2013 eine 7950 von Powercolor gekauft. Mit der hab ich bis vor 2 Wochen auf 2560*1440 gespielt, zwar in niedrigen Details aber dafür Witcher 3 und Battlefield 1. War okay.
Vor 2 Wochen hab ich nun auf eine RX 580 gewechselt, wieder von Powercolor. Für mich ist Nvidia allgemein betrachtet die Wurzel von vielen Problemen, die der Grafik/Gaming-Markt hat. Ich würde bis zu 10, vielleicht ? 15 % Nachteil (in welcher Form auch immer, ob Kosten oder Leistung) in Kauf nehmen und trotzdem AMD Nvidia vorziehen.
Ich kauf mir auch ja keinen Golf für 5000 € mehr als ein vergleichbarer Ford / Opel / Asiat kosten würde, nur weil vorne ein VW Emblem drauf ist.
Und dann im Anschluss noch zu erfahren, dass ich eine Mogelsoftware verkauft bekommen habe. und getuscht (nichts anderes hat Nvidia im übrigen ja auch schon gemacht).
Nach meiner Meinung unterstützt jeder Nvidia-Kunde indirekt
a) Preistreiberei
b) Minderinnovation
Ich bin im übrigen KEIN roter Fanboy, sondern vielmehr ein grüner Antifanboy.
Man möge sich nur einmal vorstellen, wie der Markt ohne AMD aussehen würde.
Wir würden heute maximal 6 GB VRam haben und dafür 300 € bezahlen. Dauerhaft. Mit Cryptomining 500.
Auch HBM2 kam zuerst von NVIDIA (GP100).Bis auf die Verwendung von HBM, kamen die meisten Innovationen letzter Zeit von Nvidia.
Das ist schlichtweg gelogen. Bis auf die Verwendung von HBM, kamen die meisten Innovationen letzter Zeit von Nvidia. Und warum macht man hier Autovergleiche? Ein Auto ist sehr wichtig! Eine Grafikkarte ist eher ein Hobby.
- CUDAAlles, was Nvidia in letzter Zeit beigetragen hat, ist CUDA halbwegs am Leben zu halten, und alle mit ihren beschissenen proprietären Treibern zu nerven.
RTX, DLSS? Verbesserte ML-Bibliotheken? NV-Link mit extrem hoher Bandbreite, mit dem man mehrere RTX Titan als eine Einheit rechnen lässt? Innovation muss nicht immer gut sein, die sind aber da.Nicht wirklich. Mir fällt gerade nichts revolutionäres ein, was Nvidia in letzter Zeit gemacht hätte.
In Kollaboration mit SK Hynix entwickelt und dann wegen der Verbreitung als Standard ohne Lizenzkosten freigegeben.Die großen Fortschritte in der Branche kamen doch größtenteils von AMD mit HBM
IBM, Amazon und Baidu haben nicht viel Innovatives gemacht. Sie versuchen sich von Nvidia und Intel unabhängiger zu machen, indem sie ARM- Server für ihre Cloud-Lösungen und Custom ICs für Machine-Learning bauen. Ironischerweise wird die beste Software-Lösung für Machine Learning auf allen Plattformen von Intel entwickelt: PlaidML. Es läuft performant auf jeder Hardware.und sehr guter Open Source Treiber Entwicklung, von IBM, Amazon, Baidu, und Google für NPUs, und von Xilinx und Altera durch den Bau von FPGAs, auf welchen letztendlich die meisten neuen Technologien getestet werden bevor sie günstiger in feste Hardware gegossen werden.
Sie haben immer noch die beste ML-Bibliothek, aber eben nur auf Nvidia-Hardware mit Premiumabschlag. Die Cuda-Bibliotheken sind unglaublich performant verglichen mit der Konkurrenz ( Es gibt tests im Netz). RTX und DLSS sind Innovationen, auch wenn sie zu wünschen übrig lassen ( insbesondere DLSS).Alles, was Nvidia in letzter Zeit beigetragen hat, ist CUDA halbwegs am Leben zu halten, und alle mit ihren beschissenen proprietären Treibern zu nerven.
HBM2 wurde nicht von Nvidia entwickelt, aber dass er zuerst verbaut wurde, ja.Auch HBM2 kam zuerst von NVIDIA (GP100).
- CUDA habe ich erwähnt. Aber neu ist das nicht gerade, CUDA ist 11 Jahre alt
- Skalierbare Geometrie (-> Tessellation) kommt nicht von Nvidia, sondern ist Teil von OpenGL und Direct3D
- Delta-Color Compression Kommt das nicht von AMD?
- Tiled-Rendering Das kommt ebenfalls nicht von Nvidia, sondern wurde 1989 von der Pixel Planes Group vorgestellt und seit dem größtenteils von Microsoft weiterentwickelt
- NVLink das ist eine Nvidia-interne Technologie. Andere Hersteller haben ähnliches, wie beispielsweise HyperTransport
- HBM 2.0, GDDR5x, GDDR6 das kommt von AMD, SK Hynix und Samsung. Nvidia hatte da nichts mit zu tun.
- Tensorcores Stammt von Google. Tensorcores sind ihre eigene Hardware, um Tensorflow zu optimieren
- Adaptive Shading das stimmt
- G-Sync du meinst, das Ding das so schlecht war, dass Nvidia selbst nun auch die Konkurrenz-Technologie FreeSync implementiert hat?
- Mesh-Shaders das wurde von Christoph Kubisch an der Universität Magdeburg entwickelt. Nvidia hat ihn dann eingekauft
- DLSS aka Schlangenöl. DLSS macht nichts anderes als Downsampling und schärft das Bild dann wieder nach. Schmeiß ein paar Buzzwords drauf und es verkauft sich.
- RTX das taugt halbwegs was
Nein, darum geht es nicht. Es geht um die Polymorph-Einheiten, mit denen es NVIDIA erstmal mit Fermi geschafft hat, die Berechnung von Geometrie auf mehrere unabhängige HW-Einheiten auszulagern, was es so zuvor nie gab.Skalierbare Geometrie (-> Tessellation) kommt nicht von Nvidia, sondern ist Teil von OpenGL und Direct3D.
Nein.- Delta-Color Compression Kommt das nicht von AMD?
Wurde aber eben von NVIDIA mit Pascal erstmals in einen DX-Chip eingepflanzt. Noch dazu transparent zur DX-API. Das ist definitiv revolutionär - immerhin so revolutionär, dass es AMD direkt mal nachbaut- Tiled-Rendering Das kommt ebenfalls nicht von Nvidia, sondern wurde 1989 von der Pixel Planes Group vorgestellt und seit dem größtenteils von Microsoft weiterentwickelt
Ist dennoch revolutionär, auch wenn es dir nicht passt.- NVLink das ist eine Nvidia-interne Technologie. Andere Hersteller haben ähnliches, wie beispielsweise HyperTransport
Genau, da hat NVIDIA null mit zu tun, deshalb haben sie auch einen Haufen Patente auf die diversen Speicherarten- HBM 2.0, GDDR5x, GDDR6 das kommt von AMD, SK Hynix und Samsung. Nvidia hatte da nichts mit zu tun.
Und auch dies hat NVIDIA erstmals in einen DX-Chip gepackt.- Tensorcores Stammt von Google. Tensorcores sind ihre eigene Hardware, um Tensorflow zu optimieren
Die Technologie, die zuerst brauchbares VRR geliefert hat - speziell durch LFC.- G-Sync du meinst, das Ding das so schlecht war, dass Nvidia selbst nun auch die Konkurrenz-Technologie FreeSync implementiert hat?
Wenn zugekauft Innovationen nicht zählen, dann hat leider AMD bisher nie etwas in Sachen Grafik geliert. War ja nur ATI und die hat AMD dann eingekaut- Mesh-Shaders das wurde von Christoph Kubisch an der Universität Magdeburg entwickelt. Nvidia hat ihn dann eingekauft
DLSS ist einfach nur eine andere Art des AntiAliasing.- DLSS aka Schlangenöl. DLSS macht nichts anderes als Downsampling und schärft das Bild dann wieder nach. Schmeiß ein paar Buzzwords drauf und es verkauft sich.
Also meilenweit entfernt von dem, was du Mid-Range nennst (Vega56/1660Ti). Trotzdem würde sie oft über den 60 FPS landen. Ja, eher nicht bei den paar AAA Titeln, aber du machst dir wohl nicht ganz klar, wieviele andere Spiele es da draußen gibt. Ich hab jetzt knapp 400 Spiele bei Steam, meine Freundin um die 150. Insgesamt sind da vielleicht 50 Spiele dabei, von denen man im Allgemeinen so hört, liest, die Blockbuster eben.
Ja, für den Käufer (den Jugendlichen) fällt der Posten aus der Rechnung raus. Die Stromkosten entstehen trotzdem, müssen bei der Kaufentscheidung aber natürlich nicht berücksichtigt werden, wenn man sie nicht selbst zahlt.
Sprechen die Eltern ein Wörtchen mit, sähe das natürlich anders aus. Doch haben die meisten Eltern wohl keine Vorstellung davon, was ein fps/Watt Verhältnis ist^^.
Nein, er meinte schon Fixkosten. Fix heisst auch Fix. Sprich er redet von Leuten, die im Voraus ihren monatlichen Betrag ausgehandelt haben, unabhängig vom Verbrauch.
Trotzdem bezahlen die allermeisten einen Abschlag. Das ist es was du meinst, aber leider trotzdem nicht verstanden hast. Abschläge sind nur Hochrechnungen auf Basis der Zählerstandänderung im letzten Rechnungszeitraum (in der Regel ein Jahr).
Laufende Kosten von 5€ im Monat (sehr hoch geschätzt), jucken mich dabei tatsächlich weniger als 100€ mehr die Karte. Obwohl ich, dank Hirn, mir absolut klar darüber bin, dass die Karte so am Ende iher Laufbahn mehr gekostet hat.
Vielleicht bin ich nicht der Homo Ökonomikus, aber wenn ich heute dafür eine bessere Karte kriege, kann ich mit den laufenden Mehrkosten leben.
Natrürlich übersehen viele laufende Kosten und berechnen sie garnicht in ihre Kaufentscheidung mit ein, ich kann mich aber durchaus auch bewusst dazu entscheiden, etwas aus anderen Gründen trotz höherer laufender Kosten zu kaufen.
Und die grüne Monopol-Fraktion understützen ? Nein Danke
Für mich ist Nvidia allgemein betrachtet die Wurzel von vielen Problemen, die der Grafik/Gaming-Markt hat.
Nach meiner Meinung unterstützt jeder Nvidia-Kunde indirekt
a) Preistreiberei
b) Minderinnovation
Man möge sich nur einmal vorstellen, wie der Markt ohne AMD aussehen würde.
Also mittlerweile sind die Eltern doch selbst auch Zockerkinder gewesen, ich glaube kaum, dass der Stromverbrauch da keine Rolle spielt.
Ob das jetzt eine Grafikkarte, eine Halogenlampe oder eine LED sind, oder Auto, Kühlschrank etc. alles spielt da rein, gerade wenn man 3 bis 4h im Schnitt pro Tag zockt.
Das holt man locker am Wochenende rein wenn man Freitag Abend nach der Schule von 20 uhr bis 4 Uhr vor der Kiste sitzt, Samstag morgen 3h und Samstag Abend dann nochmal 4 bis 5h und so unter der Woche 2h.
Jedenfalls ist das kein unübliches Szenario.
Am Ende ist es doch sowieso die Entscheidung von jedem selbst welche Karte besser ist.
Mir ging es ja nur darum eine Sensibilität für die Kosten zu schaffen die entstehen, wenn man schon von Preisleistung sprechen will.
Dass man da so einen Gegenwind bekommt, hätte ich nicht erwartet.
Inwiefern ändert denn jetzt die Leistungsaufnahme von CPU, Mainboard oder Bildschirm das Delta der Leistungsaufnahme von unterschiedlichen Grafikkarten?Spätestens dann, wenn man bei der Grafikkarte jedes Watt zusammenzählt, aber gleichzeitig den Rechner mit einem (vorzugsweise übertakteten) CPU-Boliden auf einem mit Features überladenen High-End-Board bestückt und das Ganze mit einem Las Vegas en miniature umgibt, damit es auch was zu sehen gibt, wenn man gerade nicht auf die ein bis X großformatigen und hochauflösenden Bildschirme schaut, wirkt die Besorgnis um Mutter Natur und/oder die Geldbörse anderer Gamer leicht deplaziert.
Inwiefern ändert denn jetzt die Leistungsaufnahme von CPU, Mainboard oder Bildschirm das Delta der Leistungsaufnahme von unterschiedlichen Grafikkarten?
Klingt mir nach keiner durchdachten Argumentationsstrategie.