Nvidia Ampere: "Bester Ramp-Up aller Zeiten"

Was für ein perfektes Käuferverhalten ...

Hast du mal irgendwann Geld in nVidia-Aktien versenkt oder steht dir schlicht dein Confirmation Bias im Weg?

"The demand is the strongest we've ever had in data centers" ist ja wohl eine eindeutige Aussage mit einem ebenso eindeutigen Bezug und unzweifelshaft richtig. nVidia hat in dem typischerweise schwächeren 1. Quartal im Data Center mehr Umsatz generiert als jemals zuvor in ihrer Geschichte. Q2Q haben sie +18 % und Y2Y +80 % mehr Umsatz generiert. Und offensichtlich konnte Ampere bisher nur einen kleinen Teil dazu beitragen, da der Launch nahe dem Quartalsende erfolgte. Im gesamten Vorjahr haben sie im Data Center insgesamt 2,99 Mrd. US$ Umsatz generiert und jetzt haben sie alleine bereits in einem einzigen Quartal 1,14 Mrd. US$ Umsatz generiert und deren neue Produkte werden sich gar erst ab dem 2. Quartal in vollem Umfang in den Bilanzen niederschlagen können.

Und dann noch so ein Unsinn wie "obwohl die Zahlen derzeit halbwegs auf Stand vor dem Miningboom sind". Entweder weißt du nicht was der Mining-Boom war oder das ist gar gezielte Desinformation. Der Mining-Boom setzte im 2HJ17 ein. Bereits im Juni bemängelte man die Knappheit bestimmer GPU-Modelle und im Juli fühlte sich fast jeder medientreibende verpflichtet auf steigende GPU-Preise hinzuweisen. Der höchste Quartals-Umsatz von nVidia bis dahin war 2Q17, dicht gefolgt von 4Q16; der Höchstumsatz lag hier bei 2,2 Mrd. US$ in einem Quartal, aber vielleicht hast du ja recht und die aktuellen 3,1 Mrd. US$ Umsatz stellen nur einen völlig unwesentlichen Mehrbetrag dar; das ist wahrscheinlich letzten Endes das Gleiche. Aber vieleilcht hast du ja auch nur das "halbwegs" überaus großzügig ausgelegt um deine Argumentation zu unterstützen?

Und der nächste Unsinn folgt auf dem Fuß mit "Wie das Folgequartal (Q2/21) aussieht, möchte ich nicht wissen!". Du scheinst hier "wissen wollen" mit "nicht akzeptieren wollen" oder "nicht mögen" zu verwechseln. Die Entwicklung projiziert 3,57 - 3,72 Mrd. US$ Umsatz für das 2. Quartal, was das mit Abstand höchste Quartalsergebnis in deren Geschichte bisher beduetet.
Darüber hinaus sehen auch Analysten dieses und auch das kommende Jahr sehr positiv für nVidia mit beträchtlichem Umsatzwachstum, was auch nicht verwundern sollte mit der komplett erneuerten Produktpalette, und vor allem dem wachsenden Bedarf in der Industrie.

"Wenn man dem Trend aus den Quartalen folgt bricht der Absatz weiter ein!" - Welcher Trend? Welcher Einbruch? AMD hat bei AIBs immer noch weniger als 1/3 Marketshare, mal ganz abgesehen davon, dass alle nVidia-GPU-Produkte (Gaming/ProfViz/DC) das Ende ihres Produktlebenszyklus erreicht haben, was Interessenten grundsätzlich zögern lässt. Welchen "Trend" versuchst du hier aus dem Hut zu zaubern, um deine vorgefasste Meinung zu unterstützen?
nVidia hat in diesem "einbrechendem" Quartal nur mit seinen Geforce-Karten alleine bereits 93 % des Umsatzes gemacht, den AMD mit sämtlichen Desktop/Mobile/HEDT-CPUs, Chipsätzen und allen GPUs zusammen erwirtschaftet. (Und insgesamt hat man hier gar dieses Quartal 172 % von AMDs Umsatz erwirtschaftet, u. a. weil deren Enterprise-Segment derzeit nicht der Rede wert ist und gar noch Verluste einfährt.)

Der Wirtschafts-Nostradamus für Arme? Du solltest dich vielleicht eher auf technische Themen beschränken.
 
Hast du mal irgendwann Geld in nVidia-Aktien versenkt oder steht dir schlicht dein Confirmation Bias im Weg?

"The demand is the strongest we've ever had in data centers" ist ja wohl eine eindeutige Aussage mit einem ebenso eindeutigen Bezug und unzweifelshaft richtig. nVidia hat in dem typischerweise schwächeren 1. Quartal im Data Center mehr Umsatz generiert als jemals zuvor in ihrer Geschichte. Q2Q haben sie +18 % und Y2Y +80 % mehr Umsatz generiert. Und offensichtlich konnte Ampere bisher nur einen kleinen Teil dazu beitragen, da der Launch nahe dem Quartalsende erfolgte. Im gesamten Vorjahr haben sie im Data Center insgesamt 2,99 Mrd. US$ Umsatz generiert und jetzt haben sie alleine bereits in einem einzigen Quartal 1,14 Mrd. US$ Umsatz generiert und deren neue Produkte werden sich gar erst ab dem 2. Quartal in vollem Umfang in den Bilanzen niederschlagen können.

Und dann noch so ein Unsinn wie "obwohl die Zahlen derzeit halbwegs auf Stand vor dem Miningboom sind". Entweder weißt du nicht was der Mining-Boom war oder das ist gar gezielte Desinformation. Der Mining-Boom setzte im 2HJ17 ein. Bereits im Juni bemängelte man die Knappheit bestimmer GPU-Modelle und im Juli fühlte sich fast jeder medientreibende verpflichtet auf steigende GPU-Preise hinzuweisen. Der höchste Quartals-Umsatz von nVidia bis dahin war 2Q17, dicht gefolgt von 4Q16; der Höchstumsatz lag hier bei 2,2 Mrd. US$ in einem Quartal, aber vielleicht hast du ja recht und die aktuellen 3,1 Mrd. US$ Umsatz stellen nur einen völlig unwesentlichen Mehrbetrag dar; das ist wahrscheinlich letzten Endes das Gleiche. Aber vieleilcht hast du ja auch nur das "halbwegs" überaus großzügig ausgelegt um deine Argumentation zu unterstützen?

Und der nächste Unsinn folgt auf dem Fuß mit "Wie das Folgequartal (Q2/21) aussieht, möchte ich nicht wissen!". Du scheinst hier "wissen wollen" mit "nicht akzeptieren wollen" oder "nicht mögen" zu verwechseln. Die Entwicklung projiziert 3,57 - 3,72 Mrd. US$ Umsatz für das 2. Quartal, was das mit Abstand höchste Quartalsergebnis in deren Geschichte bisher beduetet.
Darüber hinaus sehen auch Analysten dieses und auch das kommende Jahr sehr positiv für nVidia mit beträchtlichem Umsatzwachstum, was auch nicht verwundern sollte mit der komplett erneuerten Produktpalette, und vor allem dem wachsenden Bedarf in der Industrie.

"Wenn man dem Trend aus den Quartalen folgt bricht der Absatz weiter ein!" - Welcher Trend? Welcher Einbruch? AMD hat bei AIBs immer noch weniger als 1/3 Marketshare, mal ganz abgesehen davon, dass alle nVidia-GPU-Produkte (Gaming/ProfViz/DC) das Ende ihres Produktlebenszyklus erreicht haben, was Interessenten grundsätzlich zögern lässt. Welchen "Trend" versuchst du hier aus dem Hut zu zaubern, um deine vorgefasste Meinung zu unterstützen?
nVidia hat in diesem "einbrechendem" Quartal nur mit seinen Geforce-Karten alleine bereits 93 % des Umsatzes gemacht, den AMD mit sämtlichen Desktop/Mobile/HEDT-CPUs, Chipsätzen und allen GPUs zusammen erwirtschaftet. (Und insgesamt hat man hier gar dieses Quartal 172 % von AMDs Umsatz erwirtschaftet, u. a. weil deren Enterprise-Segment derzeit nicht der Rede wert ist und gar noch Verluste einfährt.)
Dann sieh dir einfach mal die Zahlen an und vergleiche die News, Mister Oberwichtig. Übrigens macht es deine Textwall nicht besser.

QFY19/1 = 3.207mio
QFY20/1 = 2.220mio
QFY21/1 = 3.080mio

Fällt dir was auf? Wahrscheinlich nicht, bei deinem selbstherrlichem Gesülze!:D

Ein Altzeithoch sieht anders aus und war dann vor 2 Jahren! Ich habe es schon geschrieben. Nv muss sich nicht wundern, dass man sie verklagt!

Edit sagt: Ich habe übrigens nicht ein einziges Mal AMD erwähnt, dass du dafür Applaus aus der üblichen Nv Ecke hier im Forum erhälst, ist schon fast zu normal. Beschäftige dich also selbst mit den Geschäftszahlen, 2017 - ja klar. Das wäre das FY-Geschäftsjahr von 2016!:schief:

News gefällig, von wegen 2017?: https://www.pcgameshardware.de/Nvid...idia-mit-Gewinnwarnung-und-Kurssturz-1274228/

Der Wirtschafts-Nostradamus für Arme? Du solltest dich vielleicht eher auf technische Themen beschränken.
Wirtschafts Nostradamus für Arme? Denke ich eher nicht, aber Aktien-Gau für Reiche...? Du solltest eher in der "Laberecke" schreiben.
 
Zuletzt bearbeitet von einem Moderator:
Super, das lässt für Gaming-Ampere hoffen! Geld liegt bereit :)


Ja, dass man inzwischen, innerhalb von zwei Jahren, auch ohne Miningboom - fast - auf dem Niveau des Miningbooms zurück gekommen ist :daumen:

Eine sehr starke Performance, die Vorhersage und die Schätzungen von Analysten wurden sogar übertroffen und das Q2 soll noch besser werden.


Du bist auch echt ein Profi. Es ist üblich bei Konsumerprodukten, dass das Q4 das stärkte Quartal ist. Jetzt fragen wir uns mal warum. Was ist nochmal gegen Ende Dezember? :lol:
Er hat doch Recht. Wieso weise ich bei allen Bereichen außer Datacenter ein Minus aus, 10 Prozent zum Beispiel im Bereich GAMER und spreche dann von einem Allzeithoch?

Die Aktienmärkte sind schon lange kein Spiegelbild der Wirtschaft mehr, ob es einem Unternehmen gut oder schlecht geht. Die Bilanzen werden aber für die Aktienmärkte angepaßt um Mißstimmungen zu vermeiden.

Die Wirtschaft ist bis um 70 Prozent eingebrochen und nur die Rettungsschirme der Regierungen helfen die Märkte zu stabilisieren. Was uns das noch kosten wird weiß kein Mensch. Ganze Handelsketten in China, Europa und Amerika haben geschlossen und NVidia faselt von einem Allzeithoch? Schon während und nach dem Miningcrash sei AMD Schuld gewesen, wo jeder weiß das die während dieser Phase Lieferengpässe hatten wovon NVidia stark im Absatz profitierte und Gamerhardware fürs Mining verkaufte, wobei sie diese Bilanzen dem eigenen Marktanteil für GAMER zuschrieben.

Die amerikanischen Märkte sind ein Witz und alle beteiligen sich daran, weil Trump der Erste war, der ankündigte einen 1 Billion Dollar Rettungsschirm in die Unternehmen zu streuen. Das hat viele Portfoliemanager weltweit auf Techaktien aufmerksam gemacht, was NVidia wiederum nutzt um sich schnelles Geld zu beschaffen. Bei denen sind zuletzt Großaktionäre abgesprungen, klar ist dann alles positiv, vor allem stimmt dann das zukünftige Langzeitwachstum. Trump geht es um seine Wiederwahl, was er zu oft an den Aktienmärkten festmacht. Der Kerl ist ein knallharter Geschäftsmann nichts weiter. Ich würde mal behaupten wir stehen vor einer gewaltigen Ressesion und diese amerikanische Seifenblase wird mal wieder zerplatzen, denn nach einem Allzeithoch kann nur ein Allzeittief folgen.

Was wollen die mir jetzt sagen? Ich soll auf Datacenter setzen wo jeder weiß das dies keine langfristige Auswirkungen auf die Bilanz haben, sondern das nur kurzfristig auf die auszuweisenden Gewinne Einfluß haben kann, je nach Bestellung was NVidia dann auch noch ins eigene Marketing paßt?

Im Hauptsegment Gaming GPU ist NVidias Absatz seit Juli 19 rückläufig, genau als die Aktieneinbrüche nach verspäteter Gewinnwarnung bereits die Hälfte der Depots von Kleinanlegern gekostet hatten. Die Großaktionäre hatten da schon alles abgezogen. Verarsche ist das, auf großem Niveau. Allzeithoch in Datacenter und der Rest ist egal, bei 140-150 Millionen plus. :lol:

So ein Müll kann wiederholt nur von NVidia kommen. :ugly:
 
Zuletzt bearbeitet von einem Moderator:
Ihr vergleich eben Blödsinn. Niemand vergleicht Q/Q, gerade nach dem Weihnachtsquartal.

Gaming ist fast 30% gewachsen, Prof. 15% und DataCenter sogar ganze 80%.

Dass die Zahlen nach Weihnachten zurück gehen - da muss man nun wirklich kein Wirtschaftsprofi für sein. Da muss man schon eher ne totale Dumpfbacke sein, um das zu vergleichen.

Übrigens hatte AMD von Q4 auf Q1 ganze 18% All-in-All Umsatzrückgang. Wo waren denn da eure großen Sprüche? :P

Ja klar wir vergleichen Blödsinn! Die Zahlen stammen von Nvidia selbst! Und natürlich geht die Zentralisierung von Rechenkapazität auch im Bereich der Gamerhardeware zu Lasten der allgemeinen Performance und Investition beim Anwender (Cloudgaming) in der Fläche (das zeigen diese Zahlen wunderbar auf und wann man Geforce Now in den Markt entlassen hat). Ich muss dann weniger für teure, schnellere Hardware ausgeben und buche einfach Leistung dazu.

Diese Zentraliserung im Bereich Colocation- und Hyperscalecloud kommt vor allem Unternehmen wie Amazon, Microsoft, Goolge und Co gelegen um die Monopole weiter ausbauen (dort ist Nv aber nicht immer eine Größe, weil Tensor keine Erfindung von denen ist), bei geringerem Aufwand für die Betreuung und Verwaltung in der Fläche. Da kämpft man vor allem um die Förderpoole in Landesebene weltweit, die nach covid19 sicher richtig zurückgefahren werden, Investitionen in die Zukunft verschoben. Da sind sich alle Dataexperten fast zu einig. Andere Unternehmensstrukturen (Mittelstand/Kleinunternehmen) setzten mit Edgecomputing auf eigene Plattformen, dort ist Nv mit dem A100 z.Bsp. keine Größe, weil viel zu teuer und nicht überall wird ein AI/KI cloudbasierendes Prinzip benötigt.

Das Nv-Marketing ist nunmehr und mehrfach dafür bekannt, dass es ihnen ziemlich Wurscht ist was sie gestern noch gesagt haben. Der Trend ist überall feststellbar. Dann hätte man die Zahlen die Ampere in dieser Statistik ausmacht, auch expliziet auswerfen können. Natürlich macht man zu Vorjahren Sprünge, ist doch klar wenn man 800mio Gewinn Umsatz und damit fast eine Mrd im Vorfeld abschreiben musste!

Automotive dürfte im nächsten Quartal völlig am Boden liegen, der Markt ist um 70% eingebrochen.

Edit sagt: ...ihr vergleicht vor allem immer was euch in Kram passt, damit es schlecht für AMD aussieht. Egal wo! Warum wisst ihr nur selbst. Die wurden hier kein einziges Mal erwähnt.

Die Aktienmärkte sind schon lange kein Spiegelbild der Wirtschaft mehr, ob es einem Unternehmen gut oder schlecht geht. Die Bilanzen werden aber für die Aktienmärkte angepaßt um Mißstimmungen zu vermeiden.

Die Wirtschaft ist bis um 70 Prozent eingebrochen.
Nicht alle Bereiche, vor allem die Automobilbranche ist betroffen. Supermarktketten haben profitiert (ohne Technologie). Nv bezieht sich im explizieten Quartal, wohl wieder auf eine Bestellung für einen Supercomputer.

Was die amerikanischen Märkte angeht ist das reiner Wahlkampf, dass stimmt.:daumen:
 
Zuletzt bearbeitet von einem Moderator:
Klar und jetzt frage dich mal, warum die Börse nicht auf dich Guru hört, sondern die Quartalszahlen als stark beurteilt.
NVIDIA-Aktie Aktuell: NVIDIA legt deutliche 2,6 Prozent zu - FOCUS Online

Könnte natürlich einfach nur daran liegen, dass deine Q/Q Sichtweise überhaupt niemanden interessiert und Y/Y viel spannender ist - und dort eben massiv zugelegt wurde.


Du bist ja ein Mega-Profi.

Welche Auswirkungen soll denn Ampere mit Launch im Mai genau auf ein Quartal haben, dass am 30.4. geendet hat? :lol:


Gewinne = Abschreibungen? Was für einen Blödsinn denkst du dir denn da aus? :lol:


Wer lesen kann ist klar im Vorteil:
Bei der Präsentation der aktuellen Quartalszahlen hat Nvidia nicht nur beeindruckende Finanzdaten präsentiert, sondern auch über den Launch der ersten Ampere-GPU gesprochen. Demnach soll Ampere deutlich beliebter sein als es der Vorgänger Volta war, und Nvidia rechnet in der kommenden Zeit noch mit einem deutlich ansteigenden Bedarf.

Wer hier ein Mega Profi ist, ist wieder eine ganz andere Frage. Wir sprechen uns wieder, definitiv. Dann bitte kein mimimimi.

Den A100 kannst du als interessiertes Unternehmen schon länger ordern, dass macht die Aussage ja völlig blödsinnig, gelauncht hat man jetzt den GA100 als Vollausbau bestellbar! Aber wem schreibe ich das.:D
 
Zuletzt bearbeitet von einem Moderator:
Ja, dann wissen wir ja, wo dein Problem liegt ;)

Da steht übrigens nicht, deine Behauptung. Da steht "sein" also Präsens und nicht Vergangenheit - wie es notwendig wäre, damit man sagt, dass die Zahlen in den vorgestellten Quartalszahlen drin sind ;)


Also wenn ich mir dein Geschwurbel so durchlese, dann bist du es auf keinen Fall. So ehrlich bin ich einfach mal.

Fakt ist, dass dein Q/Q Vergleich die Börse null interessiert. Die interessiert Y/Y und die Zahlen sind sehr, sehr gut. Sogar besser als von Nvidia + Börse erwartet.
Ja und morgen sind es dann Woche zu Woche, Quartale sind ja ab nun Stuss, weil das in der Bilanz einfach negativ aussieht und kontrovers zu den eigenen Aussagen eines Unternehmens steht, die diese präsentiert

Für die amerikanische Börse hat userguide, eine aus meiner Sicht ganz gute Erläuterung abgegeben. Da du nur auf "Stunk" aus zu sein scheinst. Schönen Tag noch!

Edit sagt: ...habe "Gewinn" jetzt in Umsatz geändert, danke für den Hinweis.
 
Zuletzt bearbeitet von einem Moderator:
Ich glaube du weißt gar nicht mehr, wovon du schreibst. Der GA100 ist der reine Chip, den du so überhaupt gar nicht kaufen kannst von NVIDIA. Der wiederum wird auf ein Modul gelötet, dass dann als Produkt A100 gelauncht wurde im MAI - Auswirkungen für ein Quartal, dass Ende APRIL endet ist also - komplett im Gegensatz zu dem, was du hier behauptet - exakt null. Einen Vollausbau von A100 gibt es auch gar nicht, das schrieb sogar PCGH:

Offensichtlich hast du also keinerlei Plan von irgendwas, willst aber einfach mal gegen NVIDIA stänkern. Dein Plan ist leider gescheitert :ugly:


Dein Neid auf NVIDIA ist wirklich süß :P

Wieso stört es dich und wieso fühlst du dich persönlich angegriffen, nur weil das Unternehmen erfolgreich ist?


Es war zu erwarten, dass du auf sachliche Argumente nur ad hominem zurück lieferst. Passt von mir aus, mehr kann man von Bashern nicht erwarten. Je größer die Fresse, desto geringer die Ahnung. Du hast wirklich das Maximum dieser Funktion erreicht :P


Das Geschwurbel ergibt auch durch den Austausch keinerlei Sinn.


Der A100 ist ein explitzieter Amperestack für AI (Tensor) Supercomputer der auf dem GA100 basiert. Nur weil PCGH das nicht so ausführt, ist das nicht mein Problem. Er konnte bereits frühzeitig geordert werden und wird im KI/AI/Cloudumfeld für das Jülich Supercomputer Centre, dem Max-Plank-Institut sowie dem U.S. Department of ENERS Verwendung finden. Wer hier keinen Plan hat!

Daher müssen wir uns über Geschrubel nicht unterhalten! Es gibt noch 4 weitere Varianten auf Basis der Amperearch die alle für Datacenter geordert werden können.

A100 wurde beim Dramsubsystem und dem Caching als eigne Node für Multi-User-/ und Instancen ausgelegt, vor allem auf Basis einer Mellanox-HDR-Rechenzentrumarchitektur unter Magnum IO. Nv hat also den Grossteil (mal wieder) eingekauft.
 
Zuletzt bearbeitet von einem Moderator:
Er schreibt das dieser A100 auf der Architektur vom GA100 aufsetzt, aber etxra für diese von den Auftraggebern gedachte Aufgabe in Rechenzentren entwickelt wurde. Das bedeutet das die Amperearchitektur mit dem Gamerpart absolut nichts zu tun haben muss. Das war bei Volta und Turing noch anders. AMD hat wohl mit Arcturus und Navi was ähnliches vor.

Das ist eine gute Info um einzuschätzen ob überhaupt noch jemand auf den A100 als solches setzt, denn man bindet sich dabei auch an ein bestimmtes Umfeld. Das wird für die breite Marktrelevanz sicher eine wesentliche Rolle spielen.

Mittlerweile spricht man ja auch nicht mehr von Plus 70 Prozent, wobei man bei Volta und Ampere von 20 fach schneller in bestimmten Anwendungen ausgeht. Klar wenn man die Architektur dafür gezielt anpasst. Bei der 3080Ti geht man wohl nur noch um 30 bis 40 Prozent schneller aus. Hoffen wir ohne Cloudbindung. Von 70 Prozent ist nichts mehr übrig. Dann dürfte wieder richtig viel Platz für die RTX Cores draufgehen, die Ampere ja so erstmal nicht hat.

Ich würde meine 2070 auch nicht mehr kaufen. Da hat man mir eine 1060 zum Highendpreis verkauft. Das Ding nervt und unter RTX ist sie lahm. DLSS ist einfach nur weichgespülter Pixelmatsch. 600 Euro habe ich damals dafür bezahlt.

@hks1981
Macht das Sinn. Gibt doch eine Ignorfunktion?

@eclipso
Dann scheint Ampere flexibler zu sein als gedacht. Jetzt versteht man auch was NVidia meinte mit hoffentlich noch mehr. Den A100 gibt es ja schon länger.
 
Zuletzt bearbeitet von einem Moderator:
...
Du hast echt null Ahnung. Dabei blamierst du dich aber nur selbst als komplett Ahnungslos.
...
???

Du solltest dich mit SMX und MIG beschäftigen. A100 wurde gezielt für DGX A100 entwickelt (was der Name schon sagt). Von wegen ahnungslos...

Es geht genau darum was Nv darüber finanziell berichtet und Bilanzen in die Quartalszahlen einrechnet!

Mittlerweile spricht man ja auch nicht mehr von Plus 70 Prozent, wobei man bei Volta und Ampere von 20 fach schneller in bestimmten Anwendungen ausgeht. Klar wenn man die Architektur dafür gezielt anpasst.
Davon ist nicht mehr die Rede! 2 mal so schnell in ausgesuchten Anwendungen, nicht 20.:D

A100 ist eine reine Tensor GPU für Rechenzentren. Wenn er, was er verlinkt mal gelesen hätte wüsste er das auch.
 
Und was hat der Herstellername mit der benötigten Leistung zu tun?

Perfektes Beispiel für das angesprochene Kaufverhalten. Intel muss gut sein, die xx80ti ist die stärkste Karte - brauch ich. Weil da muss man nicht nachdenken.




Im Falle Nvidia viel , weil Nvidia offensichtlich die stärksten , effizientsten Karten mit den meißten Features hat .

Ist Intel schlecht ?!

Ist die 2080Ti momentan nicht die stärkste Karte ?!

Woher weißt du wer was aus welchem Grund braucht , vor allem wenn das Geld eine unwichtige Rolle spielt ?!


Das angesprochene Kaufverhalten der roten Kundschaft richtet sich erfahrungsgemäss in erster Linie nach dem Preis ( Geiz , Finanzielle Situation ) und ist die Hardware erstmal im Kasten , wird nicht,s unversucht gelassen , es sich schön zureden :schief:
 
das weiß ich nicht. nur zeigt es sich immer wieder,dass der Kunde gar nicht mehr nachdenken will.

auch habe ich nie gesagt, dass Intel schlecht ist. Nur ist Intel aktuell aufgrund des Preises keine Empfehlung mehr. egal bei welchem Szenario.
und zockt man auf 1080p ist die Kohle in einem höher auflösenden Monitor besser investiert.

wenn man den FPS Zähler aus macht und das Spiel genießt, ist es egal ob ein 9900k oder Ryzen 3600 unterm Kühler steckt.

bei den Grakas ging es mir auch nicht nur um den Hersteller, sondern viel mehr um die Leistungen. wie oft kaufen sich Leute eine xx80 oder sogar xx80ti obwohl sie die Leistung gar nicht abrufen? Aber da spielt das Geltungsbedürfniss halt eine Rolle und man rechtfertigt seinen Kauf mit dem Qualitätsargument.
 
das weiß ich nicht. nur zeigt es sich immer wieder,dass der Kunde gar nicht mehr nachdenken will.

auch habe ich nie gesagt, dass Intel schlecht ist. Nur ist Intel aktuell aufgrund des Preises keine Empfehlung mehr. egal bei welchem Szenario.
und zockt man auf 1080p ist die Kohle in einem höher auflösenden Monitor besser investiert.

wenn man den FPS Zähler aus macht und das Spiel genießt, ist es egal ob ein 9900k oder Ryzen 3600 unterm Kühler steckt.

bei den Grakas ging es mir auch nicht nur um den Hersteller, sondern viel mehr um die Leistungen. wie oft kaufen sich Leute eine xx80 oder sogar xx80ti obwohl sie die Leistung gar nicht abrufen? Aber da spielt das Geltungsbedürfniss halt eine Rolle und man rechtfertigt seinen Kauf mit dem Qualitätsargument.


Du vergisst eine Sache .

Der Intel 9900K wird viel länger fähig sein , Spiele flüssig darzustellen als der Ryzen 3600 .

Genauso verhält es sich mit Nvidia 2080 - 2080Ti .

Zukunftssicherer ;)

Habe früher hin und wieder für Bekannte PC,s gebaut und die Erfahrung gemacht das wenn ich nen Hartz 4 Rechner für wenig Geld ( Hardware Shop mit grossteils roter Kundschaft) zusammengestellt habe , wurde ich die nicht mehr los , weil dauernd Moniert wurde , warum ist der so laut? erst 1-2 Jahre alt und es ruckelt ! Blackscreens ( Netzteil , Gehäuse , Belüftung ) ! warum kann man nicht mehr Aufrüsten ? Garantie ! usw.....

Kurz gesagt es Nervte gewaltig :rollen:

Bei all den Rechnern , bei denen ich nicht !! auf,s Geld geschaut habe , egal ob zum Zocken und oder zum Arbeiten hatte ich zu 98% Ruhe !

Viele meiner solventen Kunden äusserten sich sogar angenehm überrascht , das so viele Jahre ein Leistungsfähiges und leises System ohne Probleme Arbeiten kann :D

Diese Kunden habe ich natürlich behalten , so wie mich Intel , Nvidia Evga , BeQuiet , usw........ als Kunden behalten werden , die mir die letzten 10 Jahre Leistungsfähige , Effiziente , Langlebige Hardware Angeboten haben.:daumen:

Was ich von der Konkurrenz aus meinem Erfahrungsschatz und dem meiner Kollegen grossteils nicht sagen kann .:what:
 
du vergisst aber, dass AMD keine Bulldozer mehr vertreibt.
die aktuellen CPUs sind super. fürs zocken reichen 6 Kerner, bei anderen Anwendungen bzw. bedarf gibts 8 und mehr Kerne.

gibts mit den Ryzen Probleme? Nö.

zukunftssicher? beim Zocken? gibts nicht.
bei der GPU ist es halt schon immer sinnvoller öfter zu tauschen anstatt die GPU 6 Jahre zu nutzen und absolut unzureichende Leistung zu haben, veraltete Anschlüsse, veraltete Möglichkeiten etc.

und auch deine Kunden würden aktuell nicht merken ob sie nen 9900k oder 3700x unterm Kühler haben.
mit dem 3600 meinte ich nur, dass der Großteil der Zocker keinen Unterschied zum 9900k bemerken würde.

Und dass Intel langfristig gut war, lag an der fehlenden Innovation. wie lange hatten wir nur 4 Kerne im Mainstream? wollte man etwas mehr Leistung musste man zu den i7 greifen. die auch nur 4 Kerne hatten. was gab es für Alternativen?
jetzt gibt's für unter 200 Taler 6 starke Kerne. bei Intel ja mittlerweile sogar mit HT.

es ist beim Zocken schlicht nicht mehr nötig über 300 Taler auszugeben. und schon gar nicht über 500. Da ist Intel auch nicht Zukunftsfähiger. der Zug ist schon längst abgefahren seit Zen+

da rede ich aber nur von CPUs. eine AMD GPU würde ich aktuell auch nicht kaufen. kann sich aber auch mit den neuen ändern. ich halt mich da nicht am Herstellernamen fest.
 
Zuletzt bearbeitet:
du vergisst aber, dass AMD keine Bulldozer mehr vertreibt.
die aktuellen CPUs sind super. fürs zocken reichen 6 Kerner, bei anderen Anwendungen bzw. bedarf gibts 8 und mehr Kerne.

gibts mit den Ryzen Probleme? Nö.

zukunftssicher? beim Zocken? gibts nicht.
bei der GPU ist es halt schon immer sinnvoller öfter zu tauschen anstatt die GPU 6 Jahre zu nutzen und absolut unzureichende Leistung zu haben, veraltete Anschlüsse, veraltete Möglichkeiten etc.

und auch deine Kunden würden aktuell nicht merken ob sie nen 9900k oder 3700x unterm Kühler haben.
mit dem 3600 meinte ich nur, dass der Großteil der Zocker keinen Unterschied zum 9900k bemerken würde.

Und dass Intel langfristig gut war, lag an der fehlenden Innovation. wie lange hatten wir nur 4 Kerne im Mainstream? wollte man etwas mehr Leistung musste man zu den i7 greifen. die auch nur 4 Kerne hatten. was gab es für Alternativen?
jetzt gibt's für unter 200 Taler 6 starke Kerne. bei Intel ja mittlerweile sogar mit HT.

es ist beim Zocken schlicht nicht mehr nötig über 300 Taler auszugeben. und schon gar nicht über 500. Da ist Intel auch nicht Zukunftsfähiger. der Zug ist schon längst abgefahren seit Zen+


Zukunftssicherer ! nicht Zukunftssicher !?

Verdreh hier nicht meine Worte .

Und mein Geld bekommen Firmen die mir die letzten 10 Jahre immer gute Dienste und Hardware geliefert hat , Stabilität und Kontinuität das Belohne ich :daumen:

Was ich nicht Belohne ist eine Firma wie Amd deren Produkte , Software und Kundenfreundlichkeit Achterbahn fahren , und das auch noch eine sehr lange Zeit nur unten lang :daumen2:
 
und das belohnst du, indem du Geld verbrennst?
du kaufst die Produkte dann also auch wenn die Qualität abnimmt? was hat die Qualität von gestern mit der von morgen zu tun?
meine Oma kauft auch gern Grundig, weil die früher so gut waren.

zukunftssicher? zukunftssicherer? wenn es ersteres nicht gibt, ist zweitetes auch irrelevant.
 
und das belohnst du, indem du Geld verbrennst?
du kaufst die Produkte dann also auch wenn die Qualität abnimmt? was hat die Qualität von gestern mit der von morgen zu tun?
meine Oma kauft auch gern Grundig, weil die früher so gut waren.

zukunftssicher? zukunftssicherer? wenn es ersteres nicht gibt, ist zweitetes auch irrelevant.



Wo verbrenne ich Geld wenn ich Intel , oder Nvidia kaufe ?

Wo hat die Qualität bei Intel oder Nvidia abgenommen ?


Fakten bitte ! Sonst spare dir deinen Kommentar .


Du machst dich langsam lächerlich , wenn du abstreiten willst das zb. eine Nvidia RTX2080Ti länger spielbare FPS Erzeugen kann als zb. eine Amd 5700 !

Und das es falsch wäre eine Firma wie Intel weiter mit Käufen zu unterstützen , weil diese über ca.10 Jahre hinweg klasse Hardware geliefert hat und das noch tut !


Und du willst allen ernstes hier Behaupten das es den Begriff Zukunftssicherer , also die Steigerung von Zukunftssicher irrelevant ist , oder nicht gibt ?!


:D:D

Verstehe mich nicht falsch , du kannst dir ja deine Rechner mit Amd vollstopfen , ist ok , jedem das seine sage ich immer ;)

Aber ich werde aus Rücksicht auf mich und meine Kunden nicht Tun , und meine Wertschätzung den nach wie vor hochwertigen Herstellern Intel , Nvidia usw ... entgegenbringen :D
 
wie gesagt ging es weniger darum welcher Hersteller auf der Hardware prankt sondern, dass es fürs gaming sinnfrei ist eine 500 Euro CPU zu kaufen und für 1080p eine 2080ti einfach verbrannte Kohle ist.

zukunftsicher gibt es bei PCs nun mal nicht weil keiner weiß was kommt und ich kann jetzt nicht abschätzen wie meine Anforderungen in 5 Jahren sind. Leistung auf Vorrat kaufen war noch nie sinnvoll.


ich sagte auch nicht, dass die Qualität abgenommen hat, sondern dass du aus Qualität in der Vergangenheit auf Qualität in der Zukunft schließt. und das ist genauso wenig sinnvoll.

ich hab auch ne Nvidia drin. aber ein intel hatte zum Kaufzeitpunkt des 2600 keine Alternative für mich im Programm.

und ich erinnere mal an das VRam Debakel der RTX Grakas. da sind viele in die RMA gegangen.
 
Zuletzt bearbeitet:
du machst dich lächerlich weil du dinge behauptest die ich nie gesagt habe.

wo ist da bitte der Zusammenhang?




Entschuldige bitte , das was du hier von dir gibst ist nicht Lächerlich , es ist einfach nur Peinlich :nene:

Jeder hier im Forum ist fähig deine und meine Beiträge zu lesen , und die Zusammenhänge zu erkennen , nur du nicht ?!

Weil du nicht kannst ? Oder nicht willst ?

Aus welchem Grund ?!



Wenn du nicht kapierst das der Vergleich von einer NVIDA RTX 2080 Ti zu einer Amd RX 5700 nur als BEISPIEL zu sehen ist , und aufzeigen soll das die in diesem fall teurere Karte , in einem längerem Zeitraum Spielbare FPS mit höheren Quali Einstellungen erzeugen kann , vom grösseren Feature Set usw.... mal ganz abgesehen dann lass es besser!

Dann ist bei dir sowieso Hopfen und Malz verloren .

Und deinem Spruch oben , in deinem Text nach ,lohnt es sich nicht in Leistung auf Vorrat zu investieren ?!

Dann hat deiner Meinung nach , ( hinweis explizit für dich , ist ein Beispiel ! ) jeder der sich zu Release damals eine GTX980Ti gekauft hat etwas falsch gemacht ?

Ein Data Center das maximal in Speicher und Rechenleistung investiert macht es falsch ??

Dann machen deiner Meinung nach, alle die in Leistung auf Vorrat also für die Zukunft investieren , es falsch weil es sich nicht lohnt ????


Aber Hauptsache du machst es richtig :daumen:
 
natürlich erzeugt eine 2080ti länger spielbare fps.
darum geht aber nicht. du musst auch mal lesen was ich schreibe. weil das habe ich bereits erläutert.
stell mal dein Markendenken ab. nur kurz.

wenn man JETZT in 1080p spielt bekommt man doch mit einer 2060s mehr als genug Leistung oder? die gesparte Kohle kann man dann früher in eine neue GPU stecken.
dann hat man alle 2 bis 4 Jahre eine neue GPU, mit neuer Garantie und neuen Features.

was macht mehr Sinn?
die Kohle in einer Karte zu verbrennen die man jetzt nicht auslastet oder die GPU öfter zu wechseln?
 
Zurück