GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Über kurz oder lang wird der Mining Boom abnehmen oder komplett Platzen .

Dann gibt es eine AMD Gebraucht Karten Schwemme , und AMD wird auf ihren überteuerten und lahmen Stromsäufern ( Neuverkäufe ) sitzenbleiben .

Nvidia wird das so gut wie gar nicht treffen , da sie jetzt schon das bessere Angebot haben und in ein paar mehr oder weniger Wochen ihre neuen Grafikkarten auf den Markt bringen :D

Zumindest werde ich den Hersteller mit der besseren Hardware mit meinem Geld belohnen :daumen:
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Über kurz oder lang wird der Mining Boom abnehmen oder komplett Platzen .

Dann gibt es eine AMD Gebraucht Karten Schwemme , und AMD wird auf ihren überteuerten und lahmen Stromsäufern ( Neuverkäufe ) sitzenbleiben .

Nvidia wird das so gut wie gar nicht treffen , da sie jetzt schon das bessere Angebot haben und in ein paar mehr oder weniger Wochen ihre neuen Grafikkarten auf den Markt bringen :D

Zumindest werde ich den Hersteller mit der besseren Hardware mit meinem Geld belohnen :daumen:

Es ist naiv zu glauben, dass Nvidia vom Ende des Mining-Booms fast nicht getroffen wird. Nvidia hat dedizierte Mining-GPUs die dann nicht mehr laufen werden. Es werden viele Leute gebrauchte Nvidia-Karten kaufen genau wie Leute gebrauchte AMD-Karten kaufen werden. Eine neue Generation heißt nicht das der komplette Marktteil von Nvidia auf die neue Generation wechselt und gerade diese Leute, die was schnelleres für ihre 1060/70 haben wollen werden sich ggf. eine billige gebrauchte 1080/ti kaufen weil sie für weniger Geld mehr bekommen als in der neuen Generation. Und 1080/ti Besitzer werden sicher nicht alle aufrüsten. Dazu kommen die Leute die sich zu Pascal's Release eine 980ti oder ähnliches gebraucht gekauft haben, die werden was ähnliches vermutlich diese Generation mit einer 1080ti machen. Jetzt noch mehr nachdem die Gebraucht-Auswahl noch größer sein wird. Es ist nicht so als wäre Nvidia irgendwie unantastbar oder würde über den Marktgegebenheiten stehen. Nvidia hat auch vom Mining profitiert. Für den Laden gelten die selben Regeln.

Abgesehen davon kann halt bei 1080-Niveau nicht von Lahm die Rede sein.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Es ist naiv zu glauben, dass Nvidia vom Ende des Mining-Booms fast nicht getroffen wird. Nvidia hat dedizierte Mining-GPUs die dann nicht mehr laufen werden.
NVIDIA wird es aus vielen Gründen wenig treffen:

a) Wird NVIDIA in den nächsten Wochen/Monaten neue Produkte präsentieren und liefern, so dass eventuell auf den Markt geworfene Gebrauchtkarten deutlich unattraktiver werden
b) Verkauft NVIDIA fürs Mining primär Abfallchips, die man sonst sowieso wegwerfen müsste, z.B. GTX1080Ti Karten mit nur 5GB vRAM. Fürs Gaming absolut unbrauchbar, fürs Mining perfekt
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

NVIDIA wird es aus vielen Gründen wenig treffen:

a) Wird NVIDIA in den nächsten Wochen/Monaten neue Produkte präsentieren und liefern, so dass eventuell auf den Markt geworfene Gebrauchtkarten deutlich unattraktiver werden
b) Verkauft NVIDIA fürs Mining primär Abfallchips, die man sonst sowieso wegwerfen müsste, z.B. GTX1080Ti Karten mit nur 5GB vRAM. Fürs Gaming absolut unbrauchbar, fürs Mining perfekt

Weniger ist aber nicht fast überhaupt nicht. Und nein. Eine 10xx Larte bleibt auch nach der neuen Generation ggf. Attraktiv. Wenn man Gebraucht für 600 ne 1080ti bekommen würde und die 1180 als bsp. so 3-4% schneller ist aber nur 8GB VRam hat (was Nvidia ähnlich sehen würde, nicht negativ gemeint), warum dann die 1180 nehmen? Wer eine 1060 hat wird nicht zwingend aufrüsten. Geschweige denn bei winer 1070/80.

Sprich, auch an Nvidia wird das nicht komplett spurlos vorübergehen. Zumindest nicht Anfang des Quatals. Außerdem müssen die neuen Karten erstmal kommen um irgendwas auszugleichen.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Weniger ist aber nicht fast überhaupt nicht. Und nein. Eine 10xx Larte bleibt auch nach der neuen Generation ggf. Attraktiv. Wenn man Gebraucht für 600 ne 1080ti bekommen würde und die 1180 als bsp. so 3-4% schneller ist aber nur 8GB VRam hat (was Nvidia ähnlich sehen würde, nicht negativ gemeint), warum dann die 1180 nehmen? Wer eine 1060 hat wird nicht zwingend aufrüsten. Geschweige denn bei winer 1070/80.
1. Warum sollte NVIDIA nach 2 Jahren+ keinerlei Sprung im VRAM machen? -> Unrealistisch
2. Wird eine 1180/2080 für den gleichen Preis einer 1080Ti eine viel niedrigere Leistungsaufnahme haben

Wer kauft sich da noch eine gebrauchte Karte ohne jede Garantie?

Sprich, auch an Nvidia wird das nicht komplett spurlos vorübergehen. Zumindest nicht Anfang des Quatals. Außerdem müssen die neuen Karten erstmal kommen um irgendwas auszugleichen.
NVIDIA wird das ziemlich problemlos verkraften, ich würde mir an deiner Stelle mehr Sorgen um AMD machen :up:
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

1. Warum sollte NVIDIA nach 2 Jahren+ keinerlei Sprung im VRAM machen? -> Unrealistisch
2. Wird eine 1180/2080 für den gleichen Preis einer 1080Ti eine viel niedrigere Leistungsaufnahme haben

Wer kauft sich da noch eine gebrauchte Karte ohne jede Garantie?


NVIDIA wird das ziemlich problemlos verkraften, ich würde mir an deiner Stelle mehr Sorgen um AMD machen :up:

1. Nicht zwangsläufig.Vram ist teuer aktuell, die Stückzahlen bei GDDR6 nicht bekannt und der Markt benötigt nicht wirklich mehr. Man muss dem Topmodell ja auch platz lassen, 16GB auf einer Ti sind schon ne Menge.
2.Da weißt du offensichtlich mehr als alle anderen.Weder Leistung noch Leistungsaufnahme sind bekannt. Nichtmal wann die Karten kommen.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

1. Nicht zwangsläufig.Vram ist teuer aktuell, die Stückzahlen bei GDDR6 nicht bekannt und der Markt benötigt nicht wirklich mehr. Man muss dem Topmodell ja auch platz lassen, 16GB auf einer Ti sind schon ne Menge.
980: 4GB -> 1080: 8GB -> 1180/2080: 8GB

Finde den Fehler :)

2.Da weißt du offensichtlich mehr als alle anderen.Weder Leistung noch Leistungsaufnahme sind bekannt. Nichtmal wann die Karten kommen.
Dass die neue Generation von NVIDIA immer auf Augenhöhe mit dem letzten TopDog ist, war in den letzten Generationen Standard. Warum sollte es urplötzlich anders sein?
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

980: 4GB -> 1080: 8GB -> 1180/2080: 8GB

Finde den Fehler :)


Dass die neue Generation von NVIDIA immer auf Augenhöhe mit dem letzten TopDog ist, war in den letzten Generationen Standard. Warum sollte es urplötzlich anders sein?

580: 1,5GB 680:2GB 780:3GB 980:4GB
Merkste was? Die Vram größe richtet sich nach dem Bedarf am Markt. Speicher ist zu teuer um Ihn sinnfrei in rauen Mengen auf die Karten zu pusten. Du ziehst dir einen Abschnitt aus der Historie der dir gefällt, das entspricht aber in keiner Weise eine Rhythmus.
Nvidia ist nicht gerade bekannt dafür, großzügig mit Vram umzugehen. Wenns 11-12GB werden, kann man schon froh sein.

2.Es bleibt trotzdem pure Spekulation. Es kann genau so gut sein, dass mehrt Leistung durch mehr Verbauch erkauft wird, oder ähnliche Leistung bei gesteigerter Effizienz, oder beides oder verbessertes Featureset oder,oder, oder.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

580: 1,5GB 680:2GB 780:3GB 980:4GB
Merkste was?
Ja: Mit jedem TopDog steigt die RAM-Größe. Ergo kann man die Behauptung, die nächste Generation käme nur mit 8 GB getrost, als Bullshit abtun :up:

12GB GTX1180 vs. 12GB GTX1080Ti ist dann wieder voll in Ordnung.

2.Es bleibt trotzdem pure Spekulation. Es kann genau so gut sein, dass mehrt Leistung durch mehr Verbauch erkauft wird, oder ähnliche Leistung bei gesteigerter Effizienz, oder beides oder verbessertes Featureset oder,oder, oder.
Warum sollte NVIDIA einen neuen Chip raus bringen, wenn die Perf/Watt sinkt? Das ergibt doch gar keinen Sinn!
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Ja: Mit jedem TopDog steigt die RAM-Größe. Ergo kann man die Behauptung, die nächste Generation käme nur mit 8 GB getrost, als Bullshit abtun :up:

12GB GTX1180 vs. 12GB GTX1080Ti ist dann wieder voll in Ordnung.

Kann man nicht. Es kann sein das 8GB erhalten bleiben. Es kann sich auch ändern. Bullshit ist es dann wenn es durch einen Release wiederlegt ist. Abgesehen davon macht es keinen Sinn 8GB erstmal weiter aufzubohren. DIe 11GB der 1080ti werden schon nie genutzt. Fast kein gut programmiertes Spiel braucht im Moment mehr als 6GB VRam. Und die, die mehr brauchen laufen durch mehr VRam auch nicht besser nachdem besagte Games meistens andere Probleme haben.

Warum sollte NVIDIA einen neuen Chip raus bringen, wenn die Perf/Watt sinkt? Das ergibt doch gar keinen Sinn!

Vielleicht ist Pascal für die Architekturart das Ende der Effizienzsteigerung. Weiß keiner außer die Leute die das Zeug entwickeln. Auch Nvidia hat schon danebengegriffen. Kein Hersteller ist über jeden Zweifel erhaben.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Kann man nicht. Es kann sein das 8GB erhalten bleiben. Es kann sich auch ändern.
Nochmal: Wird es aber nicht. Das ist jedem klar, außer verblendeten Fanboys.

Vielleicht ist Pascal für die Architekturart das Ende der Effizienzsteigerung. Weiß keiner außer die Leute die das Zeug entwickeln. Auch Nvidia hat schon danebengegriffen. Kein Hersteller ist über jeden Zweifel erhaben.
Auch hier: Blödsinn. NVIDIA lässt sich nicht 2-3 Jahre Zeit, um dann +15% bei +30% Leistungsaufnahme zu liefern.

Das kann man spekulieren, wie dass die Erde flach ist, darf sich aber nicht wundern, wenn man entweder ausgelacht wird oder Widerspruch erntet.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Nochmal: Wird es aber nicht. Das ist jedem klar, außer verblendeten Fanboys.

Das hat nichts mit Fanboy sein zu tun. Aber erklär mir warum Nvidia den VRam erhöhen sollte wenn sie nicht müssen? Ist doch nur wirtschaftlich es so zu belassen. VRam ist sau teuer. Schalt mal lieber dein Hirn ein statt mich zu beleidigen. Es mag dir aufgefallen sein das ich das auch überhaupt nicht gewertet hab. Mehr VRam != Besser. Wenn dadurch der Preis um 100€ steigt und ich keinen Mehrwert davon hab, was will ich dann damit?

Klar ist übrigens überhaupt nichts bis zu einem Release. Bis dahin kann alles mögliche passieren. Nur ein Idiot nimmt ein Gerücht als automatisch war an wenn es ihm in den kram passt. Abgesehen davon hab ich auch nicht gesagt, dass Nvidia auf keinen Fall den VRam erhöht. Ich hab nur gesagt es ist nicht sicher ob das passiert und dass es im Moment wenig Sinn macht. Aber lassen wir das, das Konzept von gesunder Skepsis scheint dir nicht allzu vertraut zu sein. Du solltest Vorsicht nicht als Fanboytum abtun. Genau mit deiner Einstellung entsteht Overhype für irgendwelchen Bullshit.

Auch hier: Blödsinn. NVIDIA lässt sich nicht 2-3 Jahre Zeit, um dann +15% bei +30% Leistungsaufnahme zu liefern.

Das kann man spekulieren, wie dass die Erde flach ist, darf sich aber nicht wundern, wenn man entweder ausgelacht wird oder Widerspruch erntet.

Warum nicht? Ist ne billige Art Leistung zu steigern. Damit können sie eine "echte" neue Architektur in der Hinterhand behalten und einfach den "Brute-Force"-Weg nehmen. Effizienz-technisch hat Pascal ja wenig Konkurrenz. Und sollte was effizientes von AMD kommen können sie dann reagieren. Wenn sie billig und einfach damit davonkommen kann es durchaus sein, dass sowas kommt. Warum auch nicht? Ist nichts falsches dran. Intel hat seine 6 Kerner auch in der Schublade gelassen bis von AMD was vergleichbares kam. Warum sollte es Nvidia jetzt anders machen?

Pascal ist schon Maxwell 2.0. Auch Maxwell wird es wie GCN gehen. GCN ist ausgereizt und sollte überholt werden. Wenn bei Pascal keine Steigerung mehr möglich ist, dann muss eine neue Architektur her. Und wenn Nvidia die schon hat heißt das noch nicht, dass sie die Releasen müssen. Nehmen wir an, die 1180 15% schneller als eine 1080 und schneller als eine Vega, eine 1180ti 15% schneller als eine 1080ti und beide büßen 30% Effizienz ein. Was passiert dann? die 1180 ist damit immer noch schneller & effizienter als Vega und die 1180ti ist dann nochmal eine zusätzliche Ecke schneller. Reicht doch völlig so zu konkurrieren. Wenn dann Navi z.B. ein großer Wurf würde, bam, Schublade auf und man hat nen Konter und hat davor noch billig Geld verdient. Es ist nicht so als würde das sicher passieren. Ist aber einfach eine Möglichkeit. Was hat Intel denn von 5xxx bis 7xxx gemacht? Mehr Takt, Effizient egal, keine großen Änderungen und es hat wunderbar geklappt.
 
Zuletzt bearbeitet:
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Das hat nichts mit Fanboy sein zu tun. Aber erklär mir warum Nvidia den VRam erhöhen sollte wenn sie nicht müssen?
Hast du schon selbst genannt, nur als Argument, warum NVIDIA ein Problem haben könnte, wenn der Miningboom endet :daumen:

Ihr könnt keine einzige Generation benennen, bei der der VRAM von der x80 zur x80 Karte konstant geblieben ist. Warum sollte er es jetzt plötzlich bleiben? Das macht überhaupt gar keinen Sinn. Daher macht es auch keinen Sinn mehr darüber mit euch zu diskutieren. Die kommende x80 Karte, egal ob sie nun 1180 oder 2080 heißt, wird mehr als 8 GB VRAM haben. Das kann sich jeder denken, der bis zwei zählen kann.

Schalt mal lieber dein Hirn ein statt mich zu beleidigen.
Der Einzige, der hier beleidigt bist du :down:

Warum nicht? Ist ne billige Art Leistung zu steigern. Damit können sie eine "echte" neue Architektur in der Hinterhand behalten und einfach den "Brute-Force"-Weg nehmen.?
Einfach: Weil sie mit +50% mehr Leistung bei weniger Leistungsaufnahme viel, viel mehr Geld verdienen, als mit +15% bei +30% mehr Leistungsaufnahme.

NVIDIA wird sich das Geld garantiert nicht weg nehmen lassen. Was kommen wird zeigt ja bereits Volta. +50% mehr Shaderleistung bei keinerlei gesteigerter Leistungsaufnahme. Damit wäre eine GTX1180 locker oberhalb einer 1080Ti.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Hast du schon selbst genannt, nur als Argument, warum NVIDIA ein Problem haben könnte, wenn der Miningboom endet :daumen:

Und du glaubst, das unnötige RAM-Mengen die Leute bewegen sich lieber teurer die neue Gen als die alte zu kaufen nachdem die Leute immer noch auf ihren 4GB und 6 GB Maxwell-Karten sitzen?

Ihr könnt keine einzige Generation benennen, bei der der VRAM von der x80 zur x80 Karte konstant geblieben ist. Warum sollte er es jetzt plötzlich bleiben? Das macht überhaupt gar keinen Sinn. Daher macht es auch keinen Sinn mehr darüber mit euch zu diskutieren. Die kommende x80 Karte, egal ob sie nun 1180 oder 2080 heißt, wird mehr als 8 GB VRAM haben. Das kann sich jeder denken, der bis zwei zählen kann.

Genau wie sich jeder dachte im April werden die Karten angekündigt. Und genau deshalb sollst du auch dein Hirn einschalten. Gerüchte oder Annahmen sind nicht akkurat. Hersteller wissen bis weilen zu überraschen.

Der Einzige, der hier beleidigt bist du :down:

Nicht wirklich. Ich hab halt nur das Gefühl das du deine Sachen nicht zu Ende denkst, bzw. einfach Annahmen oder Gerüchte für 100% gegeben nimmst. Ich hab dich nicht als Fanboy beschimpft oder impliziert das du zu dumm zum Zählen bist. (Oder ein Flat-Earther. Was im Prinzip nicht besser ist)

Einfach: Weil sie mit +50% mehr Leistung bei weniger Leistungsaufnahme viel, viel mehr Geld verdienen, als mit +15% bei +30% mehr Leistungsaufnahme.

NVIDIA wird sich das Geld garantiert nicht weg nehmen lassen. Was kommen wird zeigt ja bereits Volta. +50% mehr Shaderleistung bei keinerlei gesteigerter Leistungsaufnahme. Damit wäre eine GTX1180 locker oberhalb einer 1080Ti.

Das Geld wird ihnen auch so nicht weggenommen, mit dem Unterschied das sie sich Entwicklungskosten für eine Gen sparen. Wie gesagt, hat Intel Jahre lang gemacht weil's für sie wirtschaftlicher war als große Sprünge zu machen und die sind gut gewachsen. Volta ist schon lange raus. Es gibt keine Garantie dafür, dass die nächste Gen auf Volta aufbaut. Wie gesagt. Vielleicht macht Nvidia was komplett neues. Abgesehen davon ist Volta scheiß teuer und hat HBM2. Das könnte ggf. die Margen schmälern.
 
Zuletzt bearbeitet:
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Und du glaubst, das unnötige RAM-Mengen die Leute bewegen sich lieber teurer die neue Gen als die alte zu kaufen nachdem die Leute immer noch auf ihren 4GB und 6 GB Maxwell-Karten sitzen?
12 GB (oder mit Glück gar 16GB) würde eben nicht nur die Maxwell-Besitzer, sondern auch die Pascal-Besitzer zum Umsteigen bewegen :up:

Wie gesagt: Es gibt null Anhaltspunkt dafür, dass NVIDIA die VRAM Menge nicht steigern wird. Das haben sie in der Vergangenheit nie getan. Es ist nur das übliche NVIDIA-Bashing im Vorfeld, solange man es als "Spekulation" verkaufen kann.

Genau wie sich jeder dachte im April werden die Karten angekündigt. Und genau deshalb sollst du auch dein Hirn einschalten. Gerüchte oder Annahmen sind nicht Akkurat. Hersteller wissen bis weilen zu überraschen.
Reine Nebelkerze von dir. Spekulationen über den Releasezeitpunkt haben nichts mit einer klaren Steigerung der VRAM-Menge mit jeder Generation zu tun.

Nicht wirklich. Ich hab halt nur das Gefühl das du deine Sachen nicht zu Ende denkst, bzw. einfach Annahmen oder Gerüchte für 100% gegeben nimmst. Ich hab dich nicht als Fanboy beschimpft oder impliziert das du zu dumm zum Zählen bist. (Oder ein Flat-Earther. Was im Prinzip nicht besser ist)
Das Gefühl magst du haben ,damit zeigst du aber nur, dass du entweder nicht liest, was ich schreibe, oder es nicht verstehst. Du selbst hast perfekt den Grund dafür genannt, warum NVIDIA mehr VRAM im Pascal-Nachfolger bringen wird. Dass du das selbst nicht verstanden hast spricht nicht für dich. Mir an den Kopf zu werfen "Schalt mal lieber dein Hirn ein" ist eine klare Beleidigung, während ich dich nirgends beleidigt habe. Mods sind alarmiert :daumen:

Das Geld wird ihnen auch so nicht weggenommen, mit dem Unterschied das sie sich Entwicklungskosten für eine Gen sparen. Wie gesagt, hat Intel Jahre lang gemacht weil's für sie wirtschaftlicher war als große Sprünge zu machen und die sind gut gewachsen. Volta ist schon lange raus. Es gibt keine Garantie dafür, dass die nächste Gen auf Volta aufbaut. Wie gesagt. Vielleicht macht Nvidia was komplett neues. Abgesehen davon ist Volta scheiß teuer und hat HBM2. Das könnte ggf. die Margen schmälern.
Genau, NVIDIA entwickelt eine neue Architektur, die 50% bessere Perf/Watt auf Seiten der Shader hat und setzt diese nicht in der nächsten Gen ein. Genau, Kollege, das macht total Sinn. Um es mal mit dir zu sagen "Schalt mal lieber dein Hirn ein". Dein ganzer Text macht vorne und hinten keinen Sinn. Wenn NVIDIA mit Volta schon eine viel besser, lauffähige Architektur haben, werden sie die natürlich auch im Consumer benutzten.

Ich beende die DIskussion hier, weil es einfach nur peinliches NVIDIA-Bashing ist. Ich freue mich auf den Launch, vor allem weil es Leute wie dich mal auf den Boden der Tatsachen zurück bringt :daumen:
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

12 GB (oder mit Glück gar 16GB) würde eben nicht nur die Maxwell-Besitzer, sondern auch die Pascal-Besitzer zum Umsteigen bewegen :up:

Wie gesagt: Es gibt null Anhaltspunkt dafür, dass NVIDIA die VRAM Menge nicht steigern wird. Das haben sie in der Vergangenheit nie getan. Es ist nur das übliche NVIDIA-Bashing im Vorfeld, solange man es als "Spekulation" verkaufen kann.

Was ist das denn Bashing zu sagen sie haben keinen Grund den VRam zu erhöhen? Was ist daran negativ gegen Nvidia. AMD hat genauso wenig einen Grund den VRam zu erhöhen. Das hat nichts mit Bashing zu tun. Lediglich damit, dass halt mehrere Optionen offen sind.

Reine Nebelkerze von dir. Spekulationen über den Releasezeitpunkt haben nichts mit einer klaren Steigerung der VRAM-Menge mit jeder Generation zu tun.

Es hat aber was damit zu tun, dass man nicht jedes Gerücht als gegeben nehmen sollte. Da haben auch alle gesagt: "Es ist doch glas klar, dass die neue Gen jetzt kommt". Wo ist sie jetzt? Noch nicht da. Hätte sein können, aber glas klar war es offenbar nicht. Und genau so isses mit dem VRam. Kann so kommen, muss aber eben nicht.

Das Gefühl magst du haben ,damit zeigst du aber nur, dass du entweder nicht liest, was ich schreibe, oder es nicht verstehst. Du selbst hast perfekt den Grund dafür genannt, warum NVIDIA mehr VRAM im Pascal-Nachfolger bringen wird. Dass du das selbst nicht verstanden hast spricht nicht für dich. Mir an den Kopf zu werfen "Schalt mal lieber dein Hirn ein" ist eine klare Beleidigung, während ich dich nirgends beleidigt habe. Mods sind alarmiert :daumen:

Nicht wirklich. Wie gesagt, es sind eben noch alle Optionen offen.

Genau, NVIDIA entwickelt eine neue Architektur, die 50% bessere Perf/Watt auf Seiten der Shader hat und setzt diese nicht in der nächsten Gen ein. Genau, Kollege, das macht total Sinn. Um es mal mit dir zu sagen "Schalt mal lieber dein Hirn ein". Dein ganzer Text macht vorne und hinten keinen Sinn. Wenn NVIDIA mit Volta schon eine viel besser, lauffähige Architektur haben, werden sie die natürlich auch im Consumer benutzten.

Warum eine neue Generation verpulvern wenn es dazu keinen Anlass gibt? Pascal mit erhöten Powerlimits reicht doch um mit Vega locker zu konkurrieren.

Ich beende die DIskussion hier, weil es einfach nur peinliches NVIDIA-Bashing ist. Ich freue mich auf den Launch, vor allem weil es Leute wie dich mal auf den Boden der Tatsachen zurück bringt :daumen:

Der einzige der hier basht bist du. Du beleidigst Leute als Fanboys, du bezichtigst Leute rumzubashen (Die halt nicht ein Wort gegen Nvidia gesagt haben. Wir ham lediglich gesagt, Nvidia muss nicht zwingend den VRam erhöhen). Freu dich auf den Launch. Mich muss niemand auf den Boden der Tatsachen zurückholen. Ich hab halt begriffen, dass Gerüchte sich erst dann Bewahrheiten wenn sie zu Fakten werden. Und bei der neuen Gen ist das nun mal am Release der Fall. Und bis dahin behandle ich Gerüchte halt mit Vorsicht.

Schön, für dich, dass du die Mods kontaktiert hast. Mal schau'n was passiert^^
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Ihr könnt keine einzige Generation benennen, bei der der VRAM von der x80 zur x80 Karte konstant geblieben ist. Warum sollte er es jetzt plötzlich bleiben? Das macht überhaupt gar keinen Sinn. Daher macht es auch keinen Sinn mehr darüber mit euch zu diskutieren. Die kommende x80 Karte, egal ob sie nun 1180 oder 2080 heißt, wird mehr als 8 GB VRAM haben. Das kann sich jeder denken, der bis zwei zählen kann.

Es ergibt angesichts der aktuellen Marktsituation absolut Sinn, nicht mehr des teuren VRAM zu verbauen.
Nenn du doch erst mal eine Kartengeneration, die vergleichsweise lange ohne Nachfolger aktuell blieb. Danach kann man dann anfangen darüber zu diskutieren, wie viel Aussagekraft frühere Steigerungen auf die momentane Lage haben.

Einfach: Weil sie mit +50% mehr Leistung bei weniger Leistungsaufnahme viel, viel mehr Geld verdienen, als mit +15% bei +30% mehr Leistungsaufnahme.

NVIDIA wird sich das Geld garantiert nicht weg nehmen lassen. Was kommen wird zeigt ja bereits Volta. +50% mehr Shaderleistung bei keinerlei gesteigerter Leistungsaufnahme. Damit wäre eine GTX1180 locker oberhalb einer 1080Ti.

Für das plakativ gewählte (und vollkommen unrealistische Szenario) mag das erst mal sinnvoll klingen. Aber dass bei gleicher oder besserer Effizienz +50% Leistung mehr Gewinne abwerfen als z.B. +10% (wie Intel es lange Jahre praktiziert hat), ist eben überhaupt nicht klar. Diese Logik greift also für NVidias Situation nicht.



12 GB (oder mit Glück gar 16GB) würde eben nicht nur die Maxwell-Besitzer, sondern auch die Pascal-Besitzer zum Umsteigen bewegen :up:

Wie gesagt: Es gibt null Anhaltspunkt dafür, dass NVIDIA die VRAM Menge nicht steigern wird. Das haben sie in der Vergangenheit nie getan. Es ist nur das übliche NVIDIA-Bashing im Vorfeld, solange man es als "Spekulation" verkaufen kann.

Die Zahl der Oberklasse-Pascal-Besitzer, die über zu wenig VRAM klagen, kannst du vermutlich selbst in diesem Forum an einer Hand abzählen, siehe Raffs Artikel in der aktuellen PCGH. Das ist keine für NVidia relevante Käufergruppe.
Und dass es keine Anhaltspunkte gäbe: Liest du die Beiträge der anderen überhaupt und/oder beobachtest den Grafikkartenmarkt? Anscheinend nicht, sonst würdest du nicht deine Spekulation der zunehmenden Speichermenge als Fakt präsentieren.

Reine Nebelkerze von dir. Spekulationen über den Releasezeitpunkt haben nichts mit einer klaren Steigerung der VRAM-Menge mit jeder Generation zu tun.

Alles hier sind Spekulationen. Insofern hättet ihr auch gar keinen Diskussionsgrund, würden die Spekulationen nicht immer wieder sprachlich als Fakten dargestellt.

Das Gefühl magst du haben ,damit zeigst du aber nur, dass du entweder nicht liest, was ich schreibe, oder es nicht verstehst. Du selbst hast perfekt den Grund dafür genannt, warum NVIDIA mehr VRAM im Pascal-Nachfolger bringen wird. Dass du das selbst nicht verstanden hast spricht nicht für dich. Mir an den Kopf zu werfen "Schalt mal lieber dein Hirn ein" ist eine klare Beleidigung, während ich dich nirgends beleidigt habe. Mods sind alarmiert :daumen:

Ich sehe das als Provokation, aber nicht als Beleidigung. Die nahezu einmalige Situation fehlender Konkurrenz spielt in deinen Beiträgen schließlich überhaupt keine Rolle, insofern hast du nachweisbar deine Argumentation nicht zu Ende gedacht.

Genau, NVIDIA entwickelt eine neue Architektur, die 50% bessere Perf/Watt auf Seiten der Shader hat und setzt diese nicht in der nächsten Gen ein. Genau, Kollege, das macht total Sinn. Um es mal mit dir zu sagen "Schalt mal lieber dein Hirn ein". Dein ganzer Text macht vorne und hinten keinen Sinn. Wenn NVIDIA mit Volta schon eine viel besser, lauffähige Architektur haben, werden sie die natürlich auch im Consumer benutzten.

Was du meinst, ist NVidia vollkommen egal. Wenn ein Rebrand der aktuellen Generation NVidia am profitträchtigsten erscheint, machen die im Zweifelsfall auch gar keine neue Generation. Wir haben es mit einem Wirtschaftsunternehmen zu tun und dessen Strategie werden wir irgendwann erfahren. Bis dahin sind deine Erwartungen genau das, was sie bei jedem hier sind: Erwartungen ohne Belege.

Ich beende die DIskussion hier, weil es einfach nur peinliches NVIDIA-Bashing ist. Ich freue mich auf den Launch, vor allem weil es Leute wie dich mal auf den Boden der Tatsachen zurück bringt :daumen:

Mit Bashing hat das nichts zu tun, du kommst einfach nicht damit klar, dass nicht jeder deinen Vermutungen folgt.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Es ergibt angesichts der aktuellen Marktsituation absolut Sinn, nicht mehr des teuren VRAM zu verbauen.
Nein. Wenn man Pascal-Käufer zum Tausch bewegen möchte, ist es völlig sinnlos die VRAM Menge nach mehr als zwei Jahren nicht zu steigern.

Zumal man dann auch noch Vega-Käufer abwerben kann, wenn man 50 oder 100% mehr VRAM bietet.

Nenn du doch erst mal eine Kartengeneration, die vergleichsweise lange ohne Nachfolger aktuell blieb. Danach kann man dann anfangen darüber zu diskutieren, wie viel Aussagekraft frühere Steigerungen auf die momentane Lage haben.
Das spricht erst Recht für mehr VRAM.

Für das plakativ gewählte (und vollkommen unrealistische Szenario) mag das erst mal sinnvoll klingen. Aber dass bei gleicher oder besserer Effizienz +50% Leistung mehr Gewinne abwerfen als z.B. +10% (wie Intel es lange Jahre praktiziert hat), ist eben überhaupt nicht klar. Diese Logik greift also für NVidias Situation nicht.
Das ist klar, weil man nur so genügend Käufer bekommt. Steigen Pascal-Käufer nicht um, ist die Menge der Käufer schon deutlich begrenzter.

Für +10% Leistung wäre es sinnvoller einen GP114 zu entwickeln, als mit einer komplett neuen Architektur zu kommen. Zumal die Ansätze einer neun Architektur mit Volta bereits draußen sind. Warum sollte man +50% Perf/Watt Vorteil, der vorhanden ist, nicht mitnehmen? Welchen Sinn sollte es haben, diese hinterm Berg zu halten?

Die Zahl der Oberklasse-Pascal-Besitzer, die über zu wenig VRAM klagen, kannst du vermutlich selbst in diesem Forum an einer Hand abzählen, siehe Raffs Artikel in der aktuellen PCGH. Das ist keine für NVidia relevante Käufergruppe.
Aber klar, das sind nämlich genau die Käufer, die zu allererst beim Pascal-Nachfolger zuschlagen,wenn der Vorsprung zu Pascal ausreichend groß ist. Und da spielt auch der VRAM seine nicht ungewichtige Rolle.

Und dass es keine Anhaltspunkte gäbe: Liest du die Beiträge der anderen überhaupt und/oder beobachtest den Grafikkartenmarkt? Anscheinend nicht, sonst würdest du nicht deine Spekulation der zunehmenden Speichermenge als Fakt präsentieren.
Die Fakten mit den Generationen liegen auf dem Tisch. Mit JEDER Generation sind die Werte gestiegen. Warum sollte es plötzlich anders sein? Nennt doch mal lieber einen plausiblen (!) fern ab von "NVIDIA ist aber doooof!". Könnt ihr nicht. Und deshalb werdet ihr auch sowas von daneben liegen :daumen:

Alles hier sind Spekulationen. Insofern hättet ihr auch gar keinen Diskussionsgrund, würden die Spekulationen nicht immer wieder sprachlich als Fakten dargestellt.
Es ist Fakt, dass die Speichermenge immer gestiegen ist. Und sie es auch wieder tun wird. Ich kann da gern mich beruhigt zurück lehnen :daumen:

Ich sehe das als Provokation, aber nicht als Beleidigung. Die nahezu einmalige Situation fehlender Konkurrenz spielt in deinen Beiträgen schließlich überhaupt keine Rolle, insofern hast du nachweisbar deine Argumentation nicht zu Ende gedacht.
NVIDIA hat sehr wohl eine Konkurrenz: Sich selbst, seine Pascal-Karten. Genau das ist mein Argument. Behaupte bitte nicht, etwas spiele in meinen Beiträgen keine Rolle, wenn du meine Postings offensichtlich nicht verstehst.

Was du meinst, ist NVidia vollkommen egal. Wenn ein Rebrand der aktuellen Generation NVidia am profitträchtigsten erscheint, machen die im Zweifelsfall auch gar keine neue Generation. Wir haben es mit einem Wirtschaftsunternehmen zu tun und dessen Strategie werden wir irgendwann erfahren. Bis dahin sind deine Erwartungen genau das, was sie bei jedem hier sind: Erwartungen ohne Belege.
Aber auch das, werden sie nicht tun. Es ist eben Bashing, ständig nur auf NVIDIA als das böse, profitgeile Unternehmen einzuhauen. Genau deshalb verweigere ich mich auch dieser Diskussion, weil es genau das gleiche Bashing ist, wie es vor Pascal war. Ach was sollte Pascal spät kommen, erst im Winter und wie viel früher AMD kommen würde mit ihren neuen Karten und wie viel besser die doch werden würde blablabla. Die gleichen "Experten", die jetzt meinen die VRAM Menge bleibe gleich, waren doch damals die gleichen, die hämisch gespottet haben, wie viel später dran NVIDIA doch ist.

Und was war in Wirklichkeit? Genau: Das völlige Gegenteil. Schade, dass die ganzen Spötter auch noch lern resistent sind, sonst könnte man sich diese sinnlosen Diskussionen sparen.

Mit Bashing hat das nichts zu tun, du kommst einfach nicht damit klar, dass nicht jeder deinen Vermutungen folgt.
Es sind noch nicht mal Vermutungen - das trifft ausschließlich auf euch zu - sondern Projektionen aufgrund von Erfahrungen. Ganz einfach.

Ich sehe nun zum 10. Male die Sonne am Horizont aufgehen und behaupte, dass sie es auch Morgen tun wird. Ihr behauptet aber, dass das ja nur Spekulation sei und vielleicht ist Heute das Ende aller Tage. Tja.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Ach ja, noch so als Randgedanke, der eure Überlegungen sowieso ad absurdum führt:

Wahrscheinlich wird mit der zukünftigen Generation NVIDIA mit dem MidRange-Chip im x60 Bereich mit AMDs Vega - mit 8 GB im Consumer-Outfit - in Konkurrenz treten. NVIDIA wird hier also garantiert mit 8GB antreten, um eine vollständige Konkurrenz zu den Vega Karten im Petto zu haben. Nun aber die identischen VRAM-Mengen im MidRange wie im HighEnd zu haben (also x70 und x80) ist Produkttechnisch völliger Humbug. Ergo werden wir im Bereich der x70/x80 Karten minimal 12 GB sehen.
 
AW: GPU-Marktanteile: AMD wächst weiterhin auf Kosten von Intel, Nvidia verharrt

Nein. Wenn man Pascal-Käufer zum Tausch bewegen möchte, ist es völlig sinnlos die VRAM Menge nach mehr als zwei Jahren nicht zu steigern.

Zumal man dann auch noch Vega-Käufer abwerben kann, wenn man 50 oder 100% mehr VRAM bietet.

Wenn die Leistung um 10% steigt, bringt eine Verdopplung der VRAM-Menge dem Pascal- oder Vega-Besitzer exakt nichts und das weiß jemand, der so viel Geld für eine Karte bezahlt, eigentlich auch. Ich kann hier nur noch mal auf Raffs Artikel verweisen, er musste sich schon sehr anstrengen, um überhaupt Unterschiede zwischen 8 und 16 GB-Karten zu provozieren.
Natürlich ist mehr VRAM bei einer Aufrüstung ein klares Kaufargument (siehe GTX 1060 vs RX 580), aber deswegen wechseln doch nicht in nennenswerter Anzahl die Besitzer der aktuellen Generation...

Das spricht erst Recht für mehr VRAM.

Entweder hast du den Abschnitt nicht gelesen oder nicht verstanden. Für mehr VRAM spricht er jedenfalls nicht.

Das ist klar, weil man nur so genügend Käufer bekommt. Steigen Pascal-Käufer nicht um, ist die Menge der Käufer schon deutlich begrenzter.

Für +10% Leistung wäre es sinnvoller einen GP114 zu entwickeln, als mit einer komplett neuen Architektur zu kommen. Zumal die Ansätze einer neun Architektur mit Volta bereits draußen sind. Warum sollte man +50% Perf/Watt Vorteil, der vorhanden ist, nicht mitnehmen? Welchen Sinn sollte es haben, diese hinterm Berg zu halten?

Ich weiß nicht, ob du noch nie so viel Geld für eine Karte ausgegeben hast oder aus anderen Gründen unrealistische Vorstellungen hast. Die allermeisten Pascal-Käufer werden selbst bei großzügigen +50% Leistungssteigerung nicht umsteigen. Das sind einige Enthusiasten, wie es sie sich in diesem Forum sammeln, aber der überwiegende Rest wird nicht schon wieder hohe dreistellige Beträge hinlegen, damit dann das Lieblingsspiel anstatt mit 40 mit 60 FPS läuft.

Selbst wenn es als Worst-Case-Szenario in den nächsten vier Jahren nur zu 50 Prozent Leistungssteigerung reicht, dann behalte ich halt einfach meine GTX 1080. SATA-SSDs tausche ich auch nicht so schnell aus wie bisher Grafikkarten, weil sich nichts weltbewegendes ändert. Dann passe ich den Wechselzyklus der Grafikkarte eben auch an die minimalen Leistungssteigerungen an.

Aber klar, das sind nämlich genau die Käufer, die zu allererst beim Pascal-Nachfolger zuschlagen,wenn der Vorsprung zu Pascal ausreichend groß ist. Und da spielt auch der VRAM seine nicht ungewichtige Rolle.

Wieder eine haltlose Behauptung ohne Belege.
Hast du eine Pascal-Karte? Dann ist es deine persönliche Meinung. Hast du keine? Dann ist es einfach nur so geraten.

Die Fakten mit den Generationen liegen auf dem Tisch. Mit JEDER Generation sind die Werte gestiegen. Warum sollte es plötzlich anders sein? Nennt doch mal lieber einen plausiblen (!) fern ab von "NVIDIA ist aber doooof!". Könnt ihr nicht. Und deshalb werdet ihr auch sowas von daneben liegen :daumen:

Es ist Fakt, dass die Speichermenge immer gestiegen ist. Und sie es auch wieder tun wird. Ich kann da gern mich beruhigt zurück lehnen :daumen:

Und KEINE bisherige Generation ist bei einer vergleichbaren Marktlage erschienen, warum sollte die Vergangenheit also Rückschlüsse auf die Zukunft zulassen? Merkst du was?
Die Menschen sind auch tendenziell immer größer geworden. Sind in 100 Jahren daher alle 3 Meter groß? Nein, natürlich nicht, weil die Vergangenheit nicht immer auf die Zukunft übertragen werden kann. Aber Hauptsache du wirfst uns vor, deine Argumente nicht zu verstehen...

Keiner weiß, wie viel Speicher die nächste Generation haben wird. 8 GB sind genauso möglich wie 16 GB. Der Einzige, der partout nicht verstehen will, dass jeder von uns nur Mutmaßungen äußern kann, bist du. Und als Trotzreaktion unterstellst du uns Fanboytum a la "NVidia ist doof", um von deiner eigenen Unfähigkeit zu argumentieren abzulenken.

NVIDIA hat sehr wohl eine Konkurrenz: Sich selbst, seine Pascal-Karten. Genau das ist mein Argument. Behaupte bitte nicht, etwas spiele in meinen Beiträgen keine Rolle, wenn du meine Postings offensichtlich nicht verstehst.

Wieder haben wir deine Beiträge nicht verstanden. Warum sind wir nur nicht alle so intelligent wie du?
Selbst ein Pascal-Refresh mit 5% mehr Leistung und leicht höherem Stromverbrauch würde ganz ohne Entwicklungskosten Pascal schlagen. S o weit denkst du aber wieder nicht, du erwartest dann gleich mindestens 50% Mehrleistung. Dabei würde ein Blick auf den CPU-Markt der letzten Jahre schon genügen, um zu sehen, wie Platzhirsche ohne Konkurrenz aus fremdem Haus wirklich kalkulieren.

Aber auch das, werden sie nicht tun. Es ist eben Bashing, ständig nur auf NVIDIA als das böse, profitgeile Unternehmen einzuhauen. Genau deshalb verweigere ich mich auch dieser Diskussion, weil es genau das gleiche Bashing ist, wie es vor Pascal war. Ach was sollte Pascal spät kommen, erst im Winter und wie viel früher AMD kommen würde mit ihren neuen Karten und wie viel besser die doch werden würde blablabla. Die gleichen "Experten", die jetzt meinen die VRAM Menge bleibe gleich, waren doch damals die gleichen, die hämisch gespottet haben, wie viel später dran NVIDIA doch ist.

Und was war in Wirklichkeit? Genau: Das völlige Gegenteil. Schade, dass die ganzen Spötter auch noch lern resistent sind, sonst könnte man sich diese sinnlosen Diskussionen sparen.

Kannst du mir deine Glaskugel mal leihen? Ich dachte bis eben, es gäbe gar keine gesicherten Informationen über die nächste Generation.
Deine übliche Masche: Die eigene Wunschvorstellung als Tatsache präsentieren und jeden herabwürdigen, der Zeifel an deiner Traumwelt anmeldet

Aber hör gefälligst auf, mir Bashing zu unterstellen. NVidia ist ein Unternehmen und daher natürlich profitgeil, das müssen sie auch sein. Bei mir ging es aber keine Sekunde um NVIdia und gebasht habe ich sie erst recht nicht, ies geht EINZIG UND ALLEIN um deine Vorstellungen, wie die nächste Generation ausfällt.
Dass du deinem Gegenüber dann immer und immer wieder Unsachlichkeit unterstellen musst, sobald dir die wenigen Argumente ausgehen, und die Kritik an dir auf NVidia umleitest, entspricht der Trotzigkeit eines Teenagers.


Es sind noch nicht mal Vermutungen - das trifft ausschließlich auf euch zu - sondern Projektionen aufgrund von Erfahrungen. Ganz einfach.

Ich sehe nun zum 10. Male die Sonne am Horizont aufgehen und behaupte, dass sie es auch Morgen tun wird. Ihr behauptet aber, dass das ja nur Spekulation sei und vielleicht ist Heute das Ende aller Tage. Tja.

Du bist zum Kringeln und kannst nicht mal Vermutungen von Fakten unterscheiden.
Um dich zu beunruhigen und dein Weltbild zu zerstören: Die Sonne wird nach aktuellen Theorien in der Tat eines Tages zum letzten Mal aufgehen. Aber das kann deiner Meinung nach gar nicht sein, sie ist ja davor immer aufgegangen.

"Eigentor" ist da sogar noch untertrieben.



Ach ja, noch so als Randgedanke, der eure Überlegungen sowieso ad absurdum führt:

Wahrscheinlich wird mit der zukünftigen Generation NVIDIA mit dem MidRange-Chip im x60 Bereich mit AMDs Vega - mit 8 GB im Consumer-Outfit - in Konkurrenz treten. NVIDIA wird hier also garantiert mit 8GB antreten, um eine vollständige Konkurrenz zu den Vega Karten im Petto zu haben. Nun aber die identischen VRAM-Mengen im MidRange wie im HighEnd zu haben (also x70 und x80) ist Produkttechnisch völliger Humbug. Ergo werden wir im Bereich der x70/x80 Karten minimal 12 GB sehen.

Sicherlich ist deiner Meinung nach auch der durch eine 3,5 + 0,5 Speicheranbindung in Kauf genommene Shitstorm völliger Humbug, weil die pro Karte gesparten 3 Euro den Imageverlust für NVidia niemals aufwiegen könnten. Und daher würde NVidia sowas ja nie machen.
Oder eine 6 GB-Karte (GTX 1060) könnte niemals gegen eine 8 GB Karte (RX 580) antreten. Das ist vollkommen unmöglich.

Du hast echt ein Problem, deine Erwartungen von der Realität und Fakten zu unterscheiden.
 
Zuletzt bearbeitet:
Zurück