Grafikkarten: AMD und Nvidia liefern weniger GPUs aus, Nachfrage sinkt weiter



nobody knows AMD, nobody will AMD, nobody care about AMD:heul:


och nicht das Atmen vergessen und so

der Arme bekommt ja fast n Herzinfarkt beim Geifern,in seinem roten Pulli den er seit 3 Jahren da trägt ,mit seiner "dezenten" AMD Werbung im Hintergrund^^

Wenn sich die 81% Nvidia Käufer mal zu Wort melden würden,wenn sie von dieser Minderheit immer wieder für blöd hingestellt werden, dann wäre ganz schnell Schluss hier mit den 19% militanten AMD Brüdern, die hier immer den Anschein erwecken wollen, die Firma wäre das absolute must Have
 
Zuletzt bearbeitet:
Wenn sich die 81% Nvidia Käufer mal zu Wort melden würden,wenn sie von dieser Minderheit immer wieder für blöd hingestellt werden, dann wäre ganz schnell Schluss hier mit den 19% militanten AMD Brüdern, die hier immer den Anschein erwecken wollen, die Firma wäre das absolute must Have

Geiferte er über den Geiferer. Ich sehe du hast immer noch Probleme, deine kleine Welt in mehr als zwei Gruppen einzuteilen. :D

Gibt es militante AMD-Fanboys? Klar. Ebenso wie es militante Nvidia-Fanboys gibt. Und an sich hätte ich weder mit den Einen noch mit den Anderen ein grundsätzliches Problem, wenn sie denn nicht regelmäßig jede vernünftige Diskussion zum Thema Grafikkarten, Grafikkartenmarkt und jeden sachlichen Meinungsaustausch über die spezifischen Vor- und Nachteile einzelner Produkte kapern und in einen Kindergarten verwandeln würden - wobei ich damit gerade ein ganze Menge Vorschüler beleidigt habe, die über mehr Einsicht verfügen als manche Leute, die sich fahrlässigerweise ohne elterliche Aufsicht in Hardware-Foren herumtreiben.

X-CosmicBlue hat sich differenziert zum Thema geäußert. Er hat zwar Schaffe kritisiert (jedoch in dessen Eigenschaft als Diskussionsteilnehmer, nicht als als Vertreter der "Nvidia-Fraktion"), sich aber aber gleichzeitig kritisch zu AMDs Grafikkartensparte geäußert. Da kann es doch nicht zu viel verlangt sein, in gleicher Weise differenziert (oder wahlweise gar nicht) auf den Beitrag einzugehen, statt ihn als Sprungbrett für ein erneute Hetzrede mit dem Nährwert eines Blatts Löschpapier zu nutzen, deren einziger Effekt es sein wird, die Diskussion noch mehr in sinnloses Gezoffe abgleiten zu lassen.

Mach doch bitte mal einen Selbstcheck: Es kann doch jedem hier gänzlich egal sein, wenn jemand anders meint, Nvidia würde gerade nicht so gut dastehen - und vice versa. Da sagt man einmal an, wie man die Sache jeweils sieht und gut ist's.
Was wir davon halten, wird die tatsächliche Situation - wie auch immer sie nun konkret aussieht - ohnehin nicht beeinflussen. Aber du tust beispielsweise gerade so, als wäre Nvidia allein schon dadurch in Gefahr, dass beispielsweise Hoffgang die Umsatzrückgänge unter anderem (!) bei Turing verortet, welche nicht so eingeschlagen hat wie erwartet.

Und wenn wir gerade beim Stichwort sind: Zwischen "Turing ist schuld an Nvidias Umsatzeinbrüchen!" und "Turing hat Nvidia nicht nennenswert geholfen, Umsatzeinbrüche zu umschiffen." gibt es einen feinen Unterschied, und wenn du mal für einen Moment denn Aggro-Modus verlässt, siehst du ihn womöglich sogar. Und klar ist das eine Momentaufnahme, die sich im laufenden und folgenden Quartalen noch gänzlich ändern kann. Aber bevor es nicht keinen Hardwaretest für Kristallkugeln gab, beurteile zumindest ich bevorzugt den Ist-Zustand.
 
Zuletzt bearbeitet:
Solche News wie die um den Marktanteil, wo sich alle roten Fans um Kopf u Kragen reden ,warum es AMD mal wieder gerissen hat, sind schon mit Gold nicht zu bezahlen.

Mimmi keiner will AMD mimmi die 81% sind ja alle doof die Nvidia kaufen

Das gilt auch für elitär daherredende grüne Männchen:D

Hoffentlich gibts von Intel bald eine auf Schnäuzchen , damit dieses Aufgepluster rund um Ryzen, auch endlich wieder in die korrekten Fahrwasser kommt, wo es hingehört

Scheint irgendwie so ne Underdogkrankheit sich selber immer zu überschätzen
 
Zuletzt bearbeitet:
Meine Wunschvorstellung für jede weitere künftige Diskussion: Das betrachtete Produkt in den Vordergrund stellen, ohne den "Mitbewerber" schlecht zu reden.
Hardware wird von sich aus mit der Zeit "schlechter" im Sinne von weniger performant oder effizient, das nennt sich technologischer Fortschritt.
Es ist unsinnig einen Supercomputer von 1990 schlecht zu reden, weil er heute nicht mehr in den weltweiten Top 500 vertreten ist.
Umgekehrt darf man sich freuen, wenn eine 2 Jahre alte GeForce 1070 immer noch nicht aufgerüstet werden muss - wobei man dann schon mal kritisch fragen darf, warum der Fortschritt aktuell etwas langsamer abläuft.

Und damit wären wir wieder beim Thema und der Frage, was war zuerst da: Ei oder Henne?
Wird weniger verkauft, weil es keine wirklich neuen technisch anspruchsvollen Spiele gibt oder gibt es keine technisch anspruchsvollen Spiele, weil es kein viel bessere Hardware gibt?

Ich seh die Ursachen zusätzlich zum beendeten Miningboom auf beiden Seiten:
Seit dem Core2Duo hat Intel zB beinahe nur Produktpflege betrieben, mit Tick-Tock gab es von CPU-Gen zu CPU-Gen durchschnittlich etwa 15% mehr Leistung. Möglicher Grund: Fehlende Konkurrenz.
Umgekehrt nutzt ein aktuelles Division2 eine kaum aufgebohrte Engine aus dem inzwischen 3 Jahre altem Division1.

Heute stellt man fest, dass die CPU-Entwicklung wieder etwas Fahrt aufnimmt, offensichtlich angetrieben mit dem "erstarken" von AMD mit ihren RyZens.
Vergleicht man dann den Leistungszuwachs von Generation zu Generation bei den GPUs, so muss man leider feststellen, dass die 20xxer-Reihe nicht soviel besser ist, wie es die 10xxer-Serie gegenüber ihrem Vorgänger war.
Und mit der Beobachtung von oben zu den CPUs verwundert dass dann garnicht: NVidia kann sich quasi auf seinen Lorbeeren ausruhen. AMD ist bei GPUs aktuell keine Konkurrenz.
Mehr noch: Ich behaupte, nach allem, was aktuell über Navi bekannt ist, wird AMD auch bis einschließlich 2020 nicht nach der Performance-Krone greifen. (Erinnert mich mal Weihnachten 2020 daran, zu schauen, ob meine Kristallkugel richtig lag ;) )

Da dürft Ihr mir jetzt gerne "Schwarzmalerei" oder AMD-Bashing vorwerfen, ich nenne es eine gesunde Portion Skepsis. Hier werkelt ein Threadripper zusammen mit einer 1070 und einer RX590.

Was also kann ich zum aktuellen GraKa-Markt sagen?
Die 16 GB der VII sind interessanter als die 6GB der 1660 oder 2060, die GPU ist aber die falsche, da keine Gaming-, sondern eine Workstation-GPU. Ich verstehe nach wie vor nicht, warum man nicht die Vega 64 in 7nm aufgelegt hat (doch, ich verstehe es: so kann man noch teildefekte Workstation-GPUs verkaufen).
Die VII ist quasi eine Vega60, die es nie gegeben hat.
NVidia verbaut extra RT-Cores, die bisher von keiner Handvoll Spielen genutzt werden (und sonst deaktiviert nur Platz verschwenden) und wenn doch, dann bricht die Performance trotzdem ein, so das man sich fragen muss: Wozu sind die RT-Cores dann da? Gerade bei einer 2060. Total sinnfrei.
Raytracing versaut die Performance, DLSS die Optik.
Und dann wundert sich wer, dass der GPU-Markt schwächelt? Ernsthaft?
Aus meiner Sicht haben es weder AMD noch NVidia verdient, dass man zur Zeit eines ihrer Produkte kauft.
 
Wenn man sich deine Signatur ansieht bist du wohl mit einer der "militantesten" hier.

Schön das sie dir gefällt die Signatur ,mir gefällt die Wahrheit auch sehr gut :D

Vielleicht kommen noch so ein paar Statements dazu ,das Raytracing Gebashe bietet da auch etwas zum Geraderücken, und Zitatwürdiges ^^

Wie zum Beweiß

Raytracing versaut die Performance, DLSS die Optik.
Und dann wundert sich wer, dass der GPU-Markt schwächelt? Ernsthaft?
Aus meiner Sicht haben es weder AMD noch NVidia verdient, dass man zur Zeit eines ihrer Produkte kauft.

Und aus meiner Sicht machst du mit voller Absicht Raytracing schlecht , obwohl es nun bereits mit 4K funktioniert, wo ihr vor kurzen noch über FHD rumgeweint habt;)

Und DLSS genauso
 
Zuletzt bearbeitet:
Und aus meiner Sicht machst du mit voller Absicht Raytracing schlecht , obwohl es nun bereits mit 4K funktioniert, wo ihr vor kurzen noch über FHD rumgeweint habt;)
Nach scully1234 Maßstäben sogar "Maxed Out" mit 60FPS :) Mir ist das egal wofür du deine Energie verwendest, aber wirkt halt fragwürdig sich aus deiner Position über irgendwelche AMD "Fanboys" aufzuregen.
 
Nach scully1234 Maßstäben sogar "Maxed Out" mit 60FPS :) .

Ja wenn man nicht das Haar in der Suppe suchen will, und warten wir nochmal ein zwei Performance Patches ab, dann ist auch das letzte Haar in der Suppe verschwunden, wie so vieles über das ihr euch echauffiert

Aber man findet gewiss wieder neues um es irgendwie schlecht zu machen ;)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Lustig zudem noch das es in 4K @ Ultra mit DLSS u Raytracing selbst mit mehr Frames läuft , wie die Radeon 7 Büchse mit antiquierter Rastergrafik only in 2K ^^

YouTube
 
Zuletzt bearbeitet:
Ja wenn man nicht das Haar in der Suppe suchen will, und warten wir nochmal ein zwei Performance Patches ab, dann ist auch das letzte Haar in der Suppe verschwunden, wie so vieles über das ihr euch echauffiert
Macht sich ja keiner über die Leistung der Karte lustig, finde es sogar gut das es langsam besser läuft. Echauffiert wurde sich wohl eher über deine Definition von "maxed out"
 
Vielleicht kommen noch so ein paar Statements dazu ,das Raytracing Gebashe bietet da auch etwas zum Geraderücken, und Zitatwürdiges ^^

Wie zum Beweiß



Und aus meiner Sicht machst du mit voller Absicht Raytracing schlecht , obwohl es nun bereits mit 4K funktioniert, wo ihr vor kurzen noch über FHD rumgeweint habt;)

Und DLSS genauso

Ich habe ja nicht behauptet, es würde _nicht_ funktionieren. Und nein, ich habe nie über FHD "rumgeweint", bitte keine Pauschalisierung und Verallgemeinerung, dass mach ich auch nicht.
Und ja, ich nehme wohl war, dass die Performance mit aktiviertem Raytracing inzwischen leicht gestiegen ist. Und das die Bildqualität mit DLSS nicht mehr so leidet.
Dennoch ist es meiner Meinung nach extrem enttäuschend, dass man da Hardware kauft, die über ein halbes Jahr nach erscheinen von nicht mal einer Handvoll Spielen genutzt wird und die dann trotzdem zu ziemlich starken Leistungseinbrüchen führt.
Seit ich einen 144 Hz-Monitor habe gebe ich mich mit 60fps oder weniger tatsächlich nur noch bei Singleplayerspielen zufrieden. Von daher ist Raytracing so wie NVidia das umsetzt zur Zeit für mich eher enttäuschend. da mach ich nichts "mit voller Absicht...schlecht", das ist schlicht meine Ansicht.

Bleibt noch das Problem, dass Raytracing häufig nicht wahrnehmbar (siehe YouTube) ist, da es mit so einer geringen Anzahl an Rays berechnet wird. Und auch hier wieder: Nicht genügend Rays für alle Bildpunkte und trotzudem derartige Leistungseinbußen.
NVidia hat die RT-Cores einfach zu früh auf den markt geworfen. Die hätte man erstmal in Workstation-GPUs packen sollen. Dann wären erstmal nach und nach Software entwickelt worden, die das auch nutzt (bei der Arbeit gilt: Zeit ist Geld und Raytracing ist da nicht so uninteressant bei CAD) und NVidia hätte dann ein, zwei oder drei GPU-Generationen lang die RT-Cores soweit verbessert, dass die auch wirklich ohne Leistungseinbußen Raytracing in Echtzeit beim Spielen ermöglichen.

Wenn das für Dich "zitatwürdiges" "Gebashe" ist, bitte. Ich behaupte, ich bin eher der nüchtern bis vorsichtig-enthusiastisch und verweiße auf meine Signatur und was Noctua über mich schrieb. Ich versuche sachlich-objektiv zu sein. Das mag Dir gefallen oder nicht...wahrscheinlich eher nicht, weil es nicht Deine Meinung trifft.
Aber auch dann hier wieder: bei mir arbeiten eine 590 und eine 1070 gleichzeitig Seite an Seite in meinem PC. Mir ist Fan-Gehabe fremd, ich gucke nur darauf, was ich für mein Geld bekomme.
 
Ich habe ja nicht behauptet, es würde _nicht_ funktionieren. Und nein, ich habe nie über FHD "rumgeweint", bitte keine Pauschalisierung und Verallgemeinerung, dass mach ich auch nicht.
Und ja, ich nehme wohl war, dass die Performance mit aktiviertem Raytracing inzwischen leicht gestiegen ist. Und das die Bildqualität mit DLSS nicht mehr so leidet.
Dennoch ist es meiner Meinung nach extrem enttäuschend, dass man da Hardware kauft, die über ein halbes Jahr nach erscheinen von nicht mal einer Handvoll Spielen genutzt wird und die dann trotzdem zu ziemlich starken Leistungseinbrüchen führt.
.

breaking News Raytracing kostet Leistung

Und jetzt?

Es läuft trotzdem mittlerweile auf den Highendkarten in 4K ,und bei der Midrange 2060 bei 2K ,was willst du denn mehr für eine erste Generation:ugly:

Nach nem halben Jahr Mantle Ankündigung hatte AMD gerade mal einen mittelmäßigen ersten Mantle Patch für BF4 in Petto sonst nix

Nvidia hat hier 3 Spiele deren Qualität bei DLSS mittlerweile dort ist wo man es erwartet hätte , und zwei Spiele mit der Option auf 4K Raytracing

der ein oder andere mag da vielleicht doch etwas mehr Manpower sehen in der Entwicklung gewisser Features , und es ist ja nicht das letzte Game mit Raytracing

Es wird auch noch nicht das Ende der Performancestange sein, erst recht nicht bei Spielen die nun von Grund auf mit dem Gedanken an Raytracing nativ darauf hin entwickelt werden, und nicht wie Metro oder BF5 nachgepacht

Als ob man hätte erwarten können das in einem halben Jahr da 20 oder 30 Spiele am Start wären, das gab es bei der Einführung neuer Techniken nie, erst recht nicht wenn Nvidia über Turing bis zum Release keine Internas nach außen hat dringen lassen.
 
Zuletzt bearbeitet:
breaking News Raytracing kostet Leistung

Und jetzt?

Es läuft trotzdem mittlerweile auf den Highendkarten in 4K ,und bei der Midrange 2060 bei 2K ,was willst du denn mehr für eine erste Generation:ugly:

Nach nem halben Jahr Mantle Ankündigung hatte AMD gerade mal einen mittelmäßigen ersten Mantle Patch für BF4 in Petto sonst nix

Du willst mich nicht verstehen, oder?
Und Du tust so, als ob ich Dich direkt und persönlich angreife.
Ja, RayTracing kostet Leistung.
Aber ich hätte halt erwartet, dass die RT-Cores das mehr auffangen, zumal da extra für Hardware verbaut wurde, die für nichts anderes zu gebrauchen ist.

Und ich finde es wieder bezeichnend, dass Du nun über AMD "herziehen" musst, um NVidia besser dastehen zu lassen.
Ich darf mich an dieser Stelle selbst zitieren?
Meine Wunschvorstellung für jede weitere künftige Diskussion: Das betrachtete Produkt in den Vordergrund stellen, ohne den "Mitbewerber" schlecht zu reden.

Und ja, AMD mag mit Mantle nicht weit gekommen sein, aber ohne AMDs Vorstoß beim Overhead bei den DrawCalls hätten wir heute auch kein DX12 oder Vulkan.
Von daher bleibt zu hoffen, das NVidia hier ebenso den nötigen Anstoß für RayTracing liefert.







P.S.:

Ich finde es auch sehr lustig, dass Du Dir aus meinem Absatz, in dem ich mein persönliches Fazit sowohl über die aktuelle GPU-Generation von NVidia wie auch über die von AMD ziehe, nur den Teil zitierst, der NVidia betrifft.
Als ob Du NVidia verteidigen müsstest. Als ob das Deine Aufgabe wäre. Als ob ich Dich persönlich und direkt angegriffen hätte.
Aber für AMD brichst Du keine Lanze. Meine Kritik an AMD paßt ja in Dein Weltbild, was solltest Du da auch schreiben? Da kann man den Teil ja auch einfach ignorieren. Rosinenpickerei.
Sehr bezeichnend.
Freue mich darauf, morgen mehr von Dir zu lesen. Gute Nacht.





P.P.S.:
Und um es nochmal auch und gerade für Dich gaaaaaanz deutlich zu machen:
Ich nehme es AMD heute noch übel, dass die Primitive Shader für Vega nicht nur bisher nicht umgesetzt, sondern bewußt und aktiv gestrichen wurden.
Ich sehe Negatives auf beiden Seiten (hoffentlich bald weniger, wenn es mit Intel drei gibt), sehe nicht gehaltene Marketing-Versprechen, herbeigeführte Hypes, geschönte Diagramme und Grafiken, bewußt gewählte Benchmarks.
Ich greife also nicht nur Dein ach-so-geliebtes NVidia an.
Ich versuche wirklich objektiv, sachlich und nüchtern zu sein.

Als ob man hätte erwarten können das in einem halben Jahr da 20 oder 30 Spiele am Start wären, das gab es bei der Einführung neuer Techniken nie, erst recht nicht wenn Nvidia über Turing bis zum Release keine Internas nach außen hat dringen lassen.
Nein, auch das habe ich nicht erwartet. Sieht ja bei DX12 auch nicht so aus. Mir ist durchaus bewußt, dass sowas dauert, bis sich sowas durchsetzt.
Aber Du glaubst doch nicht wirklich, das NVidia nicht schon vor Veröffentlichung von Turing mit DICE wegen BF5 Kontakt aufgenommen hat? DICE gilt mit der Frostbite-Engine quasi als Aushängeschild und Technologieträger für NVidia, so dicht, wie die bisher zusammengearbeitet haben.
 
Zuletzt bearbeitet:
DICE selbst hat bestätigt das sie für die Gamescom Messe im August ganze 2 Wochen !! Vorlauf hatten für die Erstellung einer ersten Raytracingdemo für BF 5. Willst du das vielleicht auch etwa anzweifeln?

Das Statement von DICE dazu war sogar hier auf PCGHW in einer News

Nvidia hat noch nie irgendwelche Architektur Internas etliche Monate vorher mit Wildfremden geteilt , um dann Gefahr zu laufen das der Mitbewerber daraus Profit schlägt

Und DICE hat vorher mit AMD Mantle promotet mit BF 4 also nix mit "eng u NVIDIA "

Schon alleine aus dem Grund werden da im Vorfeld keine sensiblen Details zu Turing an das Studio weiter gegangen sein
 
Zuletzt bearbeitet:
[...]Ich verstehe nach wie vor nicht, warum man nicht die Vega 64 in 7nm aufgelegt hat (doch, ich verstehe es: so kann man noch teildefekte Workstation-GPUs verkaufen).
Die VII ist quasi eine Vega60, die es nie gegeben hat.[...]
Ich vermute, AMD macht das aus dem einfachen Grund: weil es sich für die lohnt. Die Profikarte für Deep Learning-Anwendungen konnte man noch im professionellen Hochpreissegment für sehr viel Geld verscherbeln, da war dann auch eine 7 nm Risikofertigung mit geringem Yield noch profitabel. Nachdem TSMC den Prozess aber ausgereift hat, konnte man ja alles vorher dagewesene weiter verwenden: die Masken sind die selben, die Spezifikationen sind gleich, die Entwicklung ist bereits komplett finanziert - dann tut es auch nicht mehr weh, mit einem "günstig" gewordenen Prozess noch ein paar Karten nachzuproduzieren, welche dann mit angepassten Treibern in den Gamingmarkt wandern. Das freut auch TSMC, da die Fabriken ausgelastet sind und ermöglicht vielleicht im Hinblick auf Ryzen 3 bessere Deals oder ist gar Teil eines größeren Deals. Und ein paar Karten konnte man sicher absetzen. Die Käufer waren wahrscheinlich hauptsächlich so Leute wie Scully (in einem Paralleluniversum eben), die sich persönlich angegriffen fühlen, wenn man ihren imaginären Freund nicht so anhimmelt wie sie selbst, aber die haben das dann halt gekauft.
Und dann wundert sich wer, dass der GPU-Markt schwächelt? Ernsthaft?
Aus meiner Sicht haben es weder AMD noch NVidia verdient, dass man zur Zeit eines ihrer Produkte kauft.
Und das fasst das ganze ziemlich gut zusammen. Nvidia hat Glück, dass AMD gerade sehr stark schwächelt, denn eigentlich haben sie mit ihrer neuen Generation an Grafikkarten genau null Kaufanreize gesetzt. Man konnte zu Release 800€ ausgeben, um genau so schnell zu sein, wie man ein Jahr vorher war, wenn man 800€ ausgegeben hat. Der Markt hat sich null bewegt. Die paar Zusatzfeatures, die zur Zeit so gut wie kein Spiel nutzt und erst Recht keines nötig hat, machen da auch keinen Unterschied mehr. Wer mit seinen alten Grafikkarten leben kann, der behält das, was er eh schon hat. Dass sich Nvidia auch noch darüber beschwert, ist wirklich der Hohn in Dosen.
Und deshalb kapiere ich so Leute wie Scully nicht, die scheinbar eine emotionale Bindung zu einer Firma haben und nicht mehr in der Lage zu sein scheinen, in dieser Hinsicht rational zu denken. Eine Firma will am Liebsten keine Konkurrenz haben, die ganze Zeit Däumchen drehen und den Leuten das Geld aus den Taschen ziehen - und zwar jede Firma, egal ob sie AMD, Nvidia, Intel, Coca Cola, Mercedes Benz oder Chiquita heißt. Eigentlich sollten selbst die größten Idioten kapieren, dass Konkurrenz notwendig ist und es für den Endkunden die bestmögliche Entwicklung wäre, wenn AMD morgen mit einem RTX 2080 Ti-Killer für 600€ auf den Markt kommt - komplett egal, was man dann letzten Endes kauft. Weil davon Jeder profitiert, ungeachtet der eigenen Vorlieben. Aber scheinbar gibt es halt wirklich Leute, die das aus irgendwelchen Gründen nicht verstehen oder verstehen wollen. Und dass nicht jeder in der Lage zu sein scheint, weiter als einen halben Schritt nach vorne zu sehen, das ist irgendwie traurig.
gRU?; cAPS
 
DICE selbst hat bestätigt das sie für die Gamescom Messe im August ganze 2 Wochen !! Vorlauf hatten für die Erstellung einer ersten Raytracingdemo für BF 5. Willst du das vielleicht auch etwa anzweifeln?

Das Statement von DICE dazu war sogar hier auf PCGHW in einer News

Nvidia hat noch nie irgendwelche Architektur Internas etliche Monate vorher mit Wildfremden geteilt , um dann Gefahr zu laufen das der Mitbewerber daraus Profit schlägt

Und DICE hat vorher mit AMD Mantle promotet mit BF 4 also nix mit "eng u NVIDIA "

Schon alleine aus dem Grund werden da im Vorfeld keine sensiblen Details zu Turing an das Studio weiter gegangen sein
Ich mach jetzt mal etwas total Überraschendes:
Ich stimme Dir zu.
Denn an eine entsprechende News kann ich mich nicht erinnern, also musst Du in diesem Punkt Recht haben.
Ja, ich relativiere auch schon wieder. Das ist mir durchaus bewußt.

Und deshalb kapiere ich so Leute wie Scully nicht, die scheinbar eine emotionale Bindung zu einer Firma haben und nicht mehr in der Lage zu sein scheinen, in dieser Hinsicht rational zu denken. Eine Firma will am Liebsten keine Konkurrenz haben, die ganze Zeit Däumchen drehen und den Leuten das Geld aus den Taschen ziehen - und zwar jede Firma, egal ob sie AMD, Nvidia, Intel, Coca Cola, Mercedes Benz oder Chiquita heißt. Eigentlich sollten selbst die größten Idioten kapieren, dass Konkurrenz notwendig ist und es für den Endkunden die bestmögliche Entwicklung wäre, wenn AMD morgen mit einem RTX 2080 Ti-Killer für 600€ auf den Markt kommt - komplett egal, was man dann letzten Endes kauft. Weil davon Jeder profitiert, ungeachtet der eigenen Vorlieben. Aber scheinbar gibt es halt wirklich Leute, die das aus irgendwelchen Gründen nicht verstehen oder verstehen wollen. Und dass nicht jeder in der Lage zu sein scheint, weiter als einen halben Schritt nach vorne zu sehen, das ist irgendwie traurig.
gRU?; cAPS
Ich versuche mich in diesem Forum dann immer mit Psychologie.
Wir sind halt in extreme.pcgh.de.
Extrem.
Jeder hier glaubt halt, er kenne sich extrem gut mit Hardware aus.
Bei einigen, wie dem 8auer, stimmt das sogar.
Der Rest darf Mutties Laptop reparieren. Da schließ ich mich selbst mit ein.
Der Punkt ist: Wer sich extrem gut mit Hardware auskennt bzw glaubt das zu tun, der würde natürlich nur die beste Hardware kaufen und nutzen.
Also entweder wirklich die beste im Sinne von performant oder eben Preis-Leistung oder so.
Und dann kann es doch nicht sein, das ein anderes Produkt vielleicht genauso gut oder besser ist.
Also, weil ich von mir denke, das ich mich extreme gut mit Hardware auskenne und mich regelmäßig extrem umfassend informiere, hab ich mir eine GeForce 1070 gekauft und weil ich ja nichts schlechtes kaufe, kann eine Vega 56 niemals, in keinem Fall, besser sein.
Ergo muss ich für NVidia Partei ergreifen, wenn jemand was gutes über die Vega 56 sagt.
Ganz extrem logisch, oder?
Aber auch ganz schön extrem unreif und extrem wenig reflektiert.
In diesem Sinne: Einen extrem schönen Tag Euch allen.
 
Schön, wenn man etwas verlinkt, ohne dann die Überschrift zu lesen :lol:

Nein, es ist nicht "verblüffend", dass NVIDIA im Nachgang zu den Börsenzahlen - Umsatzeinbruch hin oder her - wieder um fast 10% im Aktienkurs steigt. Auch wenn hoffgang im PCGH-Forum gern die Mär über die absolut desaströse Situation von NVIDIA zelebriert, sehen das die Aktionäre offensichtlich exakt umgekehrt :daumen:

Ich wiederhole: Wenn man sich 45% Umsatzrückgang damit schönreden kann mehr zu verkaufen als AMD, dann hat man eindeutig den falschen Blickwinkel.
Das ist eigentlich genau der richtige Blickwinkel, denn wenn man bisher nur das HighEnd - mit wenig Stückzahlen - draußen hat und dennoch Marktanteile gegenüber der Konkurrenz gewinnt, ist das ein großer Gewinn. Die Karten/Chips, die NVIDIA in Sachen Marktanteil nach vorne bringen sollen, sind erst dieses bzw. kommen noch diese Quartal. Interessant wird daher eher Q2. Dann hat NVIDIA die komplette Palette draußen. Ob AMD dann überhaupt noch 10% schafft?
 
Schön, wenn man etwas verlinkt, ohne dann die Überschrift zu lesen [emoji38]

Nein, es ist nicht "verblüffend", dass NVIDIA im Nachgang zu den Börsenzahlen - Umsatzeinbruch hin oder her - wieder um fast 10% im Aktienkurs steigt. Auch wenn hoffgang im PCGH-Forum gern die Mär über die absolut desaströse Situation von NVIDIA zelebriert, sehen das die Aktionäre offensichtlich exakt umgekehrt :daumen:


Das ist eigentlich genau der richtige Blickwinkel, denn wenn man bisher nur das HighEnd - mit wenig Stückzahlen - draußen hat und dennoch Marktanteile gegenüber der Konkurrenz gewinnt, ist das ein großer Gewinn. Die Karten/Chips, die NVIDIA in Sachen Marktanteil nach vorne bringen sollen, sind erst dieses bzw. kommen noch diese Quartal. Interessant wird daher eher Q2. Dann hat NVIDIA die komplette Palette draußen. Ob AMD dann überhaupt noch 10% schafft?

Dann schau mal auf MF, gefühlt hat sich Highend besser verkauft als die 6GB Vram Karten. Natürlich ist Nvidia nicht in desaströsem Zustand, das Unternehmen besteht ja nicht nur aus der Gaming Sparte. Nur weil die sich unter Erwartungen verkauft wird Nvidia wohl nicht gleich untergehen :)
 
Dann schau mal auf MF, gefühlt hat sich Highend besser verkauft als die 6GB Vram Karten.
Bin mal gespannt, was sich an den angeblichen MF-Verkäufen nachher so auf Steam wiederfindet.

Ist schon komisch, dass man NVIDIA-Karten innerhalb eines Monats nach Launch direkt bei Steam findet und AMD nie. Selbst die RTX2080Ti hat sich in 6 Monaten verkauft, als alle Vega64 + 56 in der dreifachen Zeit.
 
Bin mal gespannt, was sich an den angeblichen MF-Verkäufen nachher so auf Steam wiederfindet.

Ist schon komisch, dass man NVIDIA-Karten innerhalb eines Monats nach Launch direkt bei Steam findet und AMD nie. Selbst die RTX2080Ti hat sich in 6 Monaten verkauft, als alle Vega64 + 56 in der dreifachen Zeit.

Wen interessiert was sich auf Steam wiederfindet? Ich bezweifle ja nichtmals das Turing sich besser verkauft als die AMD Karten, bloß im Vergleich zu Pascal und Maxwell ist es halt schleppend. Das Zugpferd Raytracing hat im Moment einfach nix zum ziehen.
Das Ziel eines Unternehmens ist es ja nicht mehr zu verkaufen als die viel kleinere Konkurrenz, man möchte weiter wachsen.
 
Wen interessiert was sich auf Steam wiederfindet?
Ja, was interessiert eigentlich, was tatsächlich beim Kunden ankommt?

Kann ich dir sagen:
- Den Hersteller
- Den Verkäufer
- Den Spieleentwickler

Kannst dir die - sowieso null aussagekräftigen - MF-Verkäufe einfach nur an den Hut stecken, wenn bei Steam die Karte hinterher nicht mal mehr in der Statistik auftaucht.
 
Zurück