Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Werdet erwachsen. Wer interessiert sich bei einem Smartphone um die Technik dahinter. Das ist genau das was eben Apple so erfolgreich gemacht hat. Die Leistung reicht im Mobilsektor etc. schon längst. Für das was 90% mit einem Laptop tun, kannst du auch ein 15 Jahre alter Laptop mit Core Duo nehmen. Es geht um Look and Feel und das hat Apple einfach früher als andere kapiert. Was wem wie viel wert ist, musst du schon anderen überlassen. Der Erfolg von Apple, Nvidia, Intel und Co gibt jedenfalls diesen Firmen Recht.

Und bei AMD und Nvidia steckt eben nicht dasselbe drin. Und ich bin immer gut gefahren mit Nvidias Topmodellen. Kaufe heute einiges weniger oft eine neue Grafikkarte oder CPU als zu AMD, ATI Zeiten.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Mich wundert nicht dass bei den OEMs ausgerechnet Acer mit AMD eng zusammen arbeitet. Beide haben dasselbe miese Qualitätsbewusstsein, weshalb ich beide Marken meide. Preis ist für mich unwichtig. Lieber ich habe etwas wertiges in der Hand, dafür bezahle ich gerne Premium Preise. Daher habe ich auch Smartphone und Tablett von Apple, würde aber nie ein PC von Apple kaufen.

Hast du auch irgendein handfestes Argument, das AMDs "mieses Qualitätsbewusstsein" darlegt, oder ist das nur wieder ein inhaltsleeres Ressentiment? :schief: Das Qualitätsbewusstsein von AMD ist nicht besser und nicht schlechter als z.B. das von Nvidia. So hat z.B. nicht AMD seine Kundschaft kürzlich beim Grafikspeicher bewusst betrogen ^^

Und bei AMD und Nvidia steckt eben nicht dasselbe drin. Und ich bin immer gut gefahren mit Nvidias Topmodellen.
Natürlich steckt nicht dasselbe drin, sonst wären die beiden auch keine Konkurrenten :P Trotzdem ist das, was drinsteckt, auf Augenhöhe zueinander. Natürlich fährt man mit Nvidias Topmodellen gut, das sind größtenteils echt gute Karten. Selbiges gilt für AMD. Mit AMDs Topmodellen wärst du in der gleichen Zeit ebenso gut gefahren, wie viele Forenmitglieder hier dir gewiss gerne bestätigen werden :)
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Hast du auch irgendein handfestes Argument, das AMDs "mieses Qualitätsbewusstsein" darlegt, oder ist das nur wieder ein inhaltsleeres Ressentiment? :schief: Das Qualitätsbewusstsein von AMD ist nicht besser und nicht schlechter als z.B. das von Nvidia. So hat z.B. nicht AMD seine Kundschaft kürzlich beim Grafikspeicher bewusst betrogen ^^

Da Stimme ich dir zu, finde auch dass beide ihre Qualität bieten und letztlich müssen sich beide auch an die gleichen Vorschriften halten.
Aber, was du mit NVIDIA ansprichst ist zwar eig. richtig, aber um ehrlich zu sein zeugt AMDs Reaktion auch nicht wirklich erwachsen und schwachsinnig.. Eigene Produkte versuchen besser zu machen, indem man die des Konkurenten schlecht macht.. naja :D Ich weiß nicht, ob ich das jetzt verständlich erklärt habe, aber vllt weiß ja jmd was ich meine.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Wenn man nur auf die aktuellen Referenzdesigns von AMD schaut , mag das wohl stimmen. Aber wozu gibts gute Costum Designs , die viele der genannten Probleme in den Griff bekommen. ;)
dann brauchen sie plötzlich deutlich weniger Energie?
Vorallem: ich habe kaum Zeit mich ständig in Reviews von Costum Designs einzulesen.
Ich sehe das Referenzdesign und sehe was die Architektur prinzipiell kann. Natürlich kann man was mit einem Custom Design wettmachen, aber halt nicht Physik umkehren.

Wenn ich dann doch kaufe, lese ich mir mal wieder bei Computerbase einen ihrer super Vergleichstests von 10+ Costum Designs pro Grafikkartenmodell durch.
Bzw schaue natürlich noch bei Anandtech, PCPER vorbei und dann noch Amazon-Kritiken.

Aber bislang nur Computerbase beantwortet jedes Mal die Frage nach dem Spulenfiepen übersichtlich in einer Tabelle:
11 GeForce GTX 970 im Test (Seite 4) - ComputerBase

Und was interessiert mich die reine Leistung eines Benchmarkbalken, wenns in so vielen anderen Bereichen nicht passen könnte (eben Spulenfiepen, Herstellersupport usw)?
Ich muss dich nicht an "Thermi" erinnern oder?
oder die Geforce 5800 Ulta :D :D
Aber genauso die Radeon 2900 XT...
 
Zuletzt bearbeitet:
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Aber wozu gibts gute Costum Designs , die viele der genannten Probleme in den Griff bekommen.

Vorallem: ich habe kaum Zeit mich ständig in Reviews von Costum Designs einzulesen.

Verzeiht die Einmischung, aber das ist schon ein bisschen lustig :D Wenn man bei Google-Bild mal "Costum Design" eingibt, findet man so was hier:

http://paperfashion.net/wp-content/uploads/2009/04/picture-4.jpg

Ihr meint bestimmt Custom Designs ;) Sorry für's Klugscheißen, aber hat mich grad etwas erheitert.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Und bei AMD und Nvidia steckt eben nicht dasselbe drin. Und ich bin immer gut gefahren mit Nvidias Topmodellen. Kaufe heute einiges weniger oft eine neue Grafikkarte oder CPU als zu AMD, ATI Zeiten.

Bissl objektiver betrachten. ;)
Zu der Zeit, wo du vielleicht AMD/Ati konsumiert hast, war in den Geschäftsfeldern auch noch echter Konkurrenzkampf (vorallem CPU-Bereich) im Gange.
Da hat sich dann innovationstechnisch auch einiges getan, sodass mit der nächsten Generation die vorherige zu den Alteisen zählte.

Heutzutage stagniert das etwas, da zählt selbst noch ein in die Jahre gekommener i7 9xx zu den brauchbaren Prozessoren. Wenn keine Konkurrenz da ist, wird sich auch weit weniger angestrengt und schon muss man nicht mehr alle halbe Jahre aufrüsten, sondern Hardware reicht mittlerweile schon einige Jahre, ohne nennenswert zu veralten.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Verzeiht die Einmischung, aber das ist schon ein bisschen lustig :D Wenn man bei Google-Bild mal "Costum Design" eingibt, findet man so was hier:

http://paperfashion.net/wp-content/uploads/2009/04/picture-4.jpg

Ihr meint bestimmt Custom Designs ;) Sorry für's Klugscheißen, aber hat mich grad etwas erheitert.
Niemand ist vor Freud' sicher.
Ich bin grade am Kostüm designen - und zwar echt jetzt.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Wenn man nur auf die aktuellen Referenzdesigns von AMD schaut , mag das wohl stimmen. Aber wozu gibts gute Costum Designs , die viele der genannten Probleme in den Griff bekommen. ;)

Auf Deutsch gesagt, AMD kann nur eine mittelmäßige Karte bauen und die Boardpartner müssen daraus eine brauchbare machen? Spricht ja nicht gerade für AMD, wenn Drittanbieter die Fehler ausbessern müssen.

Uuuuund da isses ja, das Stromsparargument. Darauf hab ich gewartet und erlaube mir hierbei auf den exzellenten Blog von Incredible Alk zu verweisen: http://extreme.pcgameshardware.de/blogs/incredible-alk/1514-alkis-blog-23-der-stromblog.html

Da das sowieso die wenigsten lesen wollen werden, hier ein kurzer Auszug: Verglichen wurden die Stromkosten von einer 780 Ti und einer R9 290X. Angenommen wurde eine großzügige Differenz von 50 Watt Mehrverbrauch zu Lasten der 290 X

Zitat

Nun da klar ist, was die Maschine so frisst, wollen wir mal kurz überschlagen was das Gerät so an Stromkosten verursacht. Da ein PC ohne Bildschirm und Soundanlage nicht viel hilft schlage ich für diese Komponenten nochmal pauschal 100 W drauf was der gemessenen Realität bei mir im Mittel sehr gut entspricht. Als „Nutzungsprofil“ eines (nicht zu Hause) Vollzeitbeschäftigten Nerds lege ich hier mal großzügige 6 Stunden pro Tag on-Time an, bestehend aus je 4 Stunden idleartigen Arbeiten (Office, Internetaufgaben, Musik/Video, im PCGHX-Forum Doppelposts zusammenkleben, ihr wisst schon :ugly:) und 2 Stunden zocken. Den Verbrauch wenn der PC aus ist setze ich dank Steckerleiste einfach mal auf Null.

In dem Falle käme man am Tag auf folgenden Verbrauch:
2/3 * (100 W + 85 W) + 1/3 * (100 W + 440 W) * 6 h = 1840 Wh = 1,84 kWh
Bei einem Stromverbrauch von 25 cent/kWh käme man so auf jährliche Kosten von
1,84 kWh/d * 365 d * 25 cent/kWh = 167,90 €
beziehungsweise auf 14 € pro Monat.

Da nun immer wieder von Stromkosten und sparsameren Grafikkarten diskutiert wird hier der Vergleich wenn man die gleiche Rechnung mit einer R9 290X durchführen würde und ich dieser unterstelle, dass sie unter Last großzügige 50 W mehr verbrät.
Es ergibt sich folgendes:
2/3 * (100 W + 85 W) + 1/3 * (100 W + 490 W) * 6 h = 1920 Wh = 1,92 kWh
Bei einem Stromverbrauch von 25 cent/kWh käme man so auf jährliche Kosten von
1,92 kWh/d * 365 d * 25 cent/kWh = 175,20 €
beziehungsweise auf 14,60 € pro Monat.

Also schönen Gruß an die, die ihre 780Ti momentan über den etwas geringeren Verbrauch rechtfertigen wollen, die Karte spart bei diesem Nutzungsprofil
grandiose 60 Cent pro Monat beziehungsweise rund 7 € im Jahr an Energiekosten.

Zitat Ende


Da müsstest du dann bei 7€ /Jahr Mehrkosten 14 Jahre lang die Graka behalten damit du einen 100€ höheren Anschaffungspreis ausgleichst. Bei 50 € mehr immer noch 7 Jahre. Na dann viel Spaß.

Wem das immer noch nicht reicht, unser Mod (Beren) hat mal in einem seiner Beiträge eine ähnliche Rechnung aufgestellt, aber ich konnte das auf die Schnelle nicht finden. Vielleicht mag er das ja selber ergänzen falls er hier drüber stolpert ;)

Nachdem wir das ja geklärt hätten, füge ich noch hinzu dass ich durch meinen Wechsel von einer MSI R9 290 (teildefekter Lüfter) auf die jetzige Graka nur einen geringen Unterschied hinsichtlich der Lautstärke und überhaupt keine negativen Auswirkungen hinsichtlich Temperaturentwicklung wahrgenommen habe. Ja, die R9 wurde wärmer - na und? Die ist darauf ausgelegt wärmer zu werden, davon hast du als Nutzer überhaupt keinen Nachteil. Oder hängst du mit einem Thermometer im Gehäuse rum und rümpfst die Nase dass das Gehäuseinnere 1-2 Grad wärmer ist? Also wenn das mal keine 1st world problems sind:lol:

Newsflash: Wenn man dann noch die hochgetakteten Custommodelle vergleicht, wird die Differenz noch geringer. Ich finds ja so geil dass man sich Enthusiastenprodukte für 500€ + kauft und dann Sparanfälle wegen ein paar Cent bekommt.:ugly:

Jetzt warte ich mal auf richtige Pro und Kontra - Argumente. Das einzige was mir einfällt wäre das einfachere Downsampling von nVidia und Shadowplay, womit sich komfortabel streamen lässt. PhysX ist ein Papierfeature das kaum genutzt wird. Beides sind jedoch nur Komfortfunktionen, beides lässt sich genauso auf AMD realisieren. Dafür hat AMD Vorteile bei höheren Auflösungen (was in letzter Zeit immer wichtiger wird), Mantle und True Audio (ok, auch nur Papierfeatures)

Punkt ist, die Marktdominanz von nVidia basiert hauptsächlich auf Fanboys, sowie einige unschöne Fehler in der Vergangenheit von AMD, wie etwa katastrophale Referenzlüfter bei der 290 und schlechtere Treiber, was schon lange her ist. Ich hatte noch nie größere Probleme mit AMD Treibern und ich zocke alles Mögliche querbeet. Aber dass nVidia auch nur mit Wasser kocht, sehen wir bei der aktuellen 3,5 GB Debatte und dem ausgeprägten Spulenfiepen bei der kompletten Reihe. Ich jedenfalls sehe absolut keinen Anhaltspunkt dafür dass nVidia das rundere Produkt sein soll.

Du hast den Punkt wohl nicht verstanden. Nur weil für dich Effizienz, Wärmeentwicklung und Lautstärke keine richtigen Argumente sind, heißt das nicht, dass das jeder so sieht.

Und nicht jeder will die Methode Leistung per Brechstange mitmachen (hat man ja auch wunderschön beim Bulldozer von AMD gesehen).

Wenn für dich nur FPS/€ zählen, ist das dein gutes Recht. Es muss aber nicht das Kriterium für jeden anderen sein.

Und klar NV hat seine Marktdominanz wegen der "Fanboys" ;) Für diese Aussage hast du bestimmt eine Quelle, oder ?

zeigt uns das ihr ein großes herz habt, los nvidia! =)

Nvidia ist (genauso wie AMD) in erster Linie ein Großunternehmen, was nicht für den Kunden sondern für seine Aktionäre arbeitet. Auch AMD produziert nicht für Luft und Liebe (und schon gar nicht für die Gamer), sondern für die Dividende.

Das muss einem nicht gefallen, aber so läuft es im Kapitalismus.

Ich wende diese konkret aufgeführten Punkte, welche deiner Meinung nach die dominierende Position Nvidias in der Grafiksparte rechtfertigen sollen, einmal beispielhaft auf die Karte in deiner Signatur und Vergleichsmodelle beider Hersteller an (280X und 290X sowie GTX 780 Ti und GTX 970).

Leistungsaufnahme 3D:

  • Gainward GTX 770 Phantom: 248W
  • MSI GTX 780 Ti Gaming: 269W
  • MSI GTX 970 Gaming 4G: 201W
  • MSI 280X Gaming: 217W
  • Sapphire 290X Tri-X OC: 269W

Lautstärke 3D:
  • Gainward GTX 770 Phantom: 3,1 Sone
  • MSI GTX 780 Ti Gaming: 1,7 Sone
  • MSI GTX 970 Gaming 4G: 2,1 Sone
  • MSI 280X Gaming: 1,9 Sone
  • Sapphire 290X Tri-X OC: 3,0 Sone

Hmmm, das schaut für die GTX 770 Phantom aber nicht so gut aus, was die angeblich grundlegend vorhandenen herstellerspezifischen Vorteile angeht. Noch interessanter wird es, wenn man die FPS/W-Leistung betrachtet, denn dabei liegt in diesem Vergleich die GTX 770 mit ordentlichem Abstand auf dem letzten Platz - ja, die R9 290X OC (und die 780 Ti auch, wohlgemerkt) hat ein besseres FPS/W-Verhältnis als die GTX 770 Phantom und ist sogar minimal leiser trotz höherer Leistungsaufnahme. Meiner Meinung nach legen sachliche Vergleiche aktueller Modelle beider Hersteller nahe, dass die oftmals betonten Pauschalaussagen zugunsten eines Herstellers nicht zutreffen - doch worauf fußen diese dann, wenn nicht auf Fakten?

Das ist ja offensichtlich nicht der Fall. Welche anderen Erklärungen könnte es für die herrschende Annahme geben? Kann es sein, dass im Bereich Grafikkarten nach wie vor viel Hörensagen verbreitet wird und wenig Kenntnisse über andere Karten als diejenigen vorliegen, die man selbst verbaut hatte oder gerade im PC neben einem werkeln?

Machen wir es kurz. Die GTX770 kam im Mai 2013 heraus, meine habe ich mir im Juni oder Juli (ich weiß es nicht mehr genau) gekauft.

Die 780ti erschien erst im Nov. 2013, die 970 im Sept. 2014, die 280x und 290x im Okt. 2013.

Was wäre also meine Alternative zur 770 gewesen? Eine 7970 oder eine 7970 GE. Im Leerlauf sind diese Karten etwa gleich laut und gleich sparsam.

Aber spätestens beim Spielen, hätte ich mit einer 7970 oder 7970 GE eine lautere und uneffizientere Karte gehabt. Und bei gerade mal 2GB war sie ca. gleichschnell wie die 7970GE die 3GB hatte.

Vergleichen wir doch mal die 780 ti mit der 290x. Die kamen im Abstand von einem Monat raus, d.h. die kann man doch gut vergleichen.

Lautheit und Verbrauch in Desktopbetrieb ist wieder annähernd gleich. Bei Spielen ist der Verbrauch auch annähernd gleich.

Jetzt aber die Lautstärke: 4,6 gegen 9,6 Sone. Fast das Doppelte bei AMD. Tut mir leid, ich will kein Geld für ein Laubgebläse ausgeben.

Temperatur im Desktopbetrieb.

36 Grad gegen 52 Grad. Satte 16 Grad unterschied nur beim Desktop.

Temperatur beim Gaming

79 Grad gegen 94 Grad. Immernoch 15 Grad und die 290x kurz vor 100 Grad. Das erklärt dann auch die Lautstärke, bei solchen Temperaturen muss der Lüfter Überstunden schieben.

Tut mir leid, aber für diese Entwicklung möchte ich zumindest kein Geld ausgeben.

Ich muss dich nicht an "Thermi" erinnern oder?

Die 5000 und 6000 Serie waren auch kein Kühlschränke ;)

Natürlich steckt nicht dasselbe drin, sonst wären die beiden auch keine Konkurrenten :P Trotzdem ist das, was drinsteckt, auf Augenhöhe zueinander. Natürlich fährt man mit Nvidias Topmodellen gut, das sind größtenteils echt gute Karten. Selbiges gilt für AMD. Mit AMDs Topmodellen wärst du in der gleichen Zeit ebenso gut gefahren, wie viele Forenmitglieder hier dir gewiss gerne bestätigen werden :)

AMDs Karten sind nicht schlecht, das bestreitet wohl niemand. Und unter reinen FPS/€ Gesichtspunkten schneiden sie klar besser ab, als NV Karten. Aber wie bereits aufgezeigt, will nicht jeder nur FPS/€. Manche sind halt am besseren Gesamtpaket interessiert. Und das hat meiner Meinung nach, nunmal Nvidia.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

jup das bessere gesamtpaket hat nv^^
ich z.b. binjemand der leistung will und keine fps/€ das is mir völlig schnurz...

jetzt kommt bestimtm aber du hast ja"nur" 2x 670er, warum dann keine 680er?
easy beantwortet ich war damals noch schüler, jetzt bin ich fast am ende meiner ausbildung angelangt und nun hab ich auch das geld um mir die richtig guten karten zu kaufen.
dafür nehme ich bissl aufpreis auch in kauf... da gibts meist ne "kleine" ecke mehr leistung, teilweise nette extrasund auf hwbot machen die sich auch gut :P
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

warum Amd weniger einimmt,kann ich ganz einfach erklären.Amd hatte schon immer ein viel schlechteres Marketink gehabt,das rächst sich halt etwas.
Dann kommt der lärm,ich kann es mir ja vorstellen ,habe nämlich das video gesehen von der 5800 Ultra.

Und das mit den Temperaturen kann ich ebenfalls verstehen,habe auf dem Laptop im Sommer das ein oder andere Hitzeproblem gehabt.Ausschalten war die Folge.Im Sommer haben die AMD Grafikkarten also ein nachteil bei den temps.Okay wenn man so wie ich 3x200 mm Lüfter im Gehäuse hat dann ist der Pc immer kühl auch im Sommer,da friere ich dann trotzdem dann.Ich weis nicht was schlimmer ist,zu kalt oder zu warm der,ist eben ansichtsache.


Wenn der lärm und die Temberaturen nicht wären,ist da immer noch der Treiebr ein Problem.Damals hat AMD eine komplette neu entwicklung beim Treiebr versprochen kappt,aber ich sehen den dummerweise nicht,weil früher habe ich dann ja gehofft ich könnte dann endlcih mal alle PC Spiele auf egal welcher Grafikkarte ohne Probleme zocken.Doch wo kein echter neuer verbesserter Treiber sind auch kein besseres spielen auf denen.

Ihr fragt euch sicherlich um welche Pc Spiele es denn expleziet geht,okay das sind zwar überwiegend powered by nvidia aber trotzdem.Nun folgende Spiele leifen auf egal was ich machte niemals flüssig: Kane & Lynch 1,GTA 4,Paretorians,Empire Erarth 1,Gotach(ja es leif zwar flüssig,aber es fühlte sich zah an),Company of heroes oppsing Front(es lief zwar,aber es fühtle sich wie microrukeln an).Die erfahrung mag zwar aus einer HD 4870 1 gb stammen,aber wo kein gänzlich neuer Treiber kann es auf diesen Spielen wohl auch in zukunft nicht besser laufen.


Also AMD Fans wie argumentiert ihr das denn nun,was ratet ihr so einem wie mir? Was gibt es denn noch für alternativen,der so wie ich keine neuen Pc Spiele spielt,AMD Entwickler werden sich sicherlich nicht die arme ausreisen und Spiele aus dem Jahre 2005 die vorher nicht liefen,durch ein Wunder zum laufen zu bekommen.Die schauen doch nur auf neuere Spiele und beachten doch die alten schinken nicht mehr.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Aber spätestens beim Spielen, hätte ich mit einer 7970 oder 7970 GE eine lautere und uneffizientere Karte gehabt. Und bei gerade mal 2GB war sie ca. gleichschnell wie die 7970GE die 3GB hatte.
Eine ineffizientere Karte? Übliche 7970 GE/OC nehmen i.d.R. weniger W auf als deine GTX 770 Phantom (zum Teil ~45W, bspw. die damals beliebte VTX3D X-Edition). ;) Wie kommst du darauf, dass die 7970 (GE) ineffizient sei? Bzgl. der Lautstärke möchte ich anmerken, dass bspw. die erwähnte 7970 mit 1050/2850 MHz auf 1,9 Sone unter 3D-Last kommt. ;) Deine GTX 770 hingegen auf 3,1 Sone.

Ich fasse zusammen: Deine Karte ist ineffizienter, lauter und langsamer als damalige Vergleichsprodukte. Trotzdem bezeichnest du (pauschal) AMD-Karten als lauter, heißer & ineffizienter als Nvidia-Karten, obwohl deine eigene Karte genau in diesen Punkten ein Musterbeispiel dafür ist, dass deine Aussage bzgl. Nvidias gerechtfertigtem Aufpreis wegen dieser Eigenschaften eben nicht zutrifft.
MMn ein wunderbares Beispiel, wieso (abgesehen von Kriterien, die wirklich relevant für einen Erwerb einer Nvidia-Karte sein könnten, wie CUDA, Physx, 3DVision etc.) Nvidia so häufig in den Himmel gelobt wird. Selbst wenn du eine Nvidia-Karte hast, die damals wie heute lauter, heißer und ineffizienter als Vergleichsprodukte war und ist, sind Karten von Nvidia trotzdem grundsätzlich besser in diesen Punkten und den "Premium-Aufpreis" daher wert. :ugly: Ist das rational begründbar?
Aber wie bereits aufgezeigt, will nicht jeder nur FPS/€. Manche sind halt am besseren Gesamtpaket interessiert. Und das hat meiner Meinung nach, nunmal Nvidia.
Es gibt Gründe für eine (gute) Nvidia-Karte. Jedoch sollte klar geworden sein, dass nicht jede Nvidia-Karte eine Effizienz wie GTX970 & 980 aufweist und die pauschale Aussage...
Wer hingegen unter P/L ein rundes Gesamtpaket versteht, indem auch Wärmeentwicklung, Lautstärkeentwicklung und Stromverbrauch relevant sind, der erkennt, dass es eben keine Premium-Aufschläge sind, da diese Punkte auch Geld in der Entwicklung und Produktion kosten.
...gilt nunmal nicht, sie ist auf wenige Modelle beschränkt. Die Aussage enthält mMn eben eine gewisse Ironie, da sie von jemandem kommt, bei dessen Karte all diese Punkte in keinster Weise zutreffen. ;) Aber vlt. erklärt diese Diskrepanz zwischen Wahrnehmung und Realität zumindest zum Teil, wieso Nvidia so erfolgreich ist und seine Marktposition weiter ausbauen kann.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Das sind Referenzdesigns ;)
Wer kauft denn die Referenzdesigns, außer Early-Adopter (wenn's keine Custom-Kühler zum Release gibt) oder Leute die sowieso ne WaKü draufschnallen? :ugly:
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

A) Wenn du jedem User eine WaKü unterstellest, dann ist die Temperatur und die Laustärke egal, da hast du wohl recht. Aber das wird wohl eher die Ausnahme als die Regel sein.

B) Es geht darum, wer die bessere Karte baut. Das macht ab Werk (zumindest in meinen Augen) NV. Das Drittanbieter die Karten von AMD retten, spricht ja nicht gerade für die Ingenieurskunst von AMD.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

B) Es geht darum, wer die bessere Karte baut. Das macht ab Werk (zumindest in meinen Augen) NV. Das Drittanbieter die Karten von AMD retten, spricht ja nicht gerade für die Ingenieurskunst von AMD.

Nur im Falle des Kühldesigns ;) Das konnte AMD aber meines Wissens nach noch nie, außer bei der R9 295X mit der AiO :ugly:
Die GTX 970/980 bringt ja auch Peaks von 350-400W über die Leitung, worüber das Netzteil alles andere als erfreut ist. Daher rührt auch die Sparsamkeit der Maxwell-Architektur: Sie kann einfach nur extrem gut/schnell auf Lastwechsel reagieren ;)
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Und Verbrauch und Temperatur ;) Hast du die verlinkten Tests eigentlich gelesen?

Wie gesagt, es verwundert nicht, dass bei solchen Werte die GPUs von AMD günstiger sind ;)
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Und Verbrauch und Temperatur ;) Hast du die verlinkten Tests eigentlich gelesen?

Der Verbrauch ist bei AMD extrem abhängig von der Temperatur des Chips (Vor allem bei den Referenzdesigns das Problem). Das sieht man besonders gut beim Vergleich des R9 290X Referenzdesigns (94°C) und einer R9 290X unter Wakü (40°C): Der Verbrauch sinkt bei gleicher Leistung um ca. 1-2W pro 1°C ;)
Gute Custom Designs verbrauchen deshalb manchmal bei höheren Taktraten aber geringeren Temperaturen weniger als das Referenzdesign ;)
Meine R9 280X ist z.B. sogar etwas sparsamer als meine alte GTX 560Ti mit 90°C :ugly:

Wie gesagt: Die Referenzdesigns von AMD kannste in die Tonne kloppen. Wenn man die Karten vergleicht, dann die entsprechenden Custom-Modellen ;)
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Der Verbrauch ist bei AMD extrem abhängig von der Temperatur des Chips (Vor allem bei den Referenzdesigns das Problem).

Das ist nicht nur bei AMD so, sondern bei allen Halbleitern, und das kann man sogar recht anschaulich physikalisch begründen: Je wärmer ein Halbleiter wird, desto mehr Elektronen haben genug kinetische Energie (Boltzmann-verteilt), um die Bandlücke des Halbleiters zu überwinden, und aus dem Valenzband ins Leitungsband zu gelangen. Kurz formuliert: Das Halbleiter-Substrat, das eigentlich isolieren soll, wird in der Hitze leitfähig. Dadurch fließen wesentlich größere Leckströme, und der Stromverbrauch steigt drastisch an.

Wie oben schon erwähnt wurde, sind die AMD-Referenzkühlerdesigns schon seit zig Generationen dürftig, das kann man einfach nicht anders formulieren. Deshalb werden die Referenzkarten wesentlich wärmer als nötig wäre. Das wiederum führt aufgrund obigen Effektes dazu, dass die Referenzkarten signifikant mehr Strom verbrauchen als die kühleren Custom-Designs. Nvidia verbaut im Referenzdesign bessere Kühler, so dass bei Nvidia der Unterschied im Energieverbrauch zwischen Referenz und Custom wesentlich kleiner ausfällt. Insofern stimme ich deiner Aussage letztlich dann doch zu, auch wenn der Grund in Wirklichkeit ein Anderer ist :)

Deswegen ist es durchaus fair und angebracht, von beiden Herstellern die Custom-Designs zu vergleichen. Das AMD-Referenzdesign landet am Ende eh bei (fast) niemandem im PC, dementsprechend ist der Energieverbrauch da völlig nichtssagend. Entscheidend ist doch, wieviel Energie die Karte dann im realen Einsatz verbrauchen wird. Und dabei kommt es eben ganz wesentlich auf die GPU-Temperatur an :)
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Wie gesagt: Die Referenzdesigns von AMD kannste in die Tonne kloppen. Wenn man die Karten vergleicht, dann die entsprechenden Custom-Modellen ;)

Die stammen dann aber weder von AMD noch von Nvidia, sondern von Drittanbietern.

Wenn du vergleichen willst, wer bessere GPUs baut, muss man die Referenzdesigns vergleichen.
 
AW: Nvidia Geschäftszahlen: Grafiksparte steigt weiter, 50 Mio. PCs mit Geforce Experience

Wenn du vergleichen willst, wer bessere GPUs baut, muss man die Referenzdesigns vergleichen.

In deinen Post ist zwar wahrscheinlich noch nicht der Inhalt meines direkt zuvor abgeschickten Beitrages über deinem eingeflossen. Trotzdem nochmal kurz: Wenn man sehen will, wer die bessere Karte baut, muss man die Referenzdesigns vergleichen. Wenn man sehen will, wer die bessere GPU baut, muss man die Custom-Designs vergleichen (im Idealfall beide mit identischer Kühllösung). Mich persönlich interessiert eigentlich nur die zweite Frage ;)
 
Zurück