Intel Arc: Intel weicht Fragen zur Performance der Gaming-Grafikkarten aus

Wichtig ist doch nur, dass Intel den Einstieg schafft. Egal in welchem Segment genau. Dann wird es auf Dauer auch drei Grafikkartenhersteller geben. Würde mich aber von Kampfpreisen verabschieden, wenn der Markt weiterhin nicht gesättigt ist. Intel verschenkt auch nichts!
 
@Chatstar: Ich weiß, du würdest am liebsten alle GPU-Käufer mit vorgehaltener Waffe zwingen wollen AMD-Produkte zu kaufen ... der Markt insgesamt, scheint da aber ganz anderer Ansicht zu sein, also beruhig dich, AMD wird in den kommenden Jahren sicher nicht pleite gehen, auch wenn nur ein vergleichsweise kleiner Teil des GPU-Marktes AMD kauft. ;-)
 
Da war das Topmodell bei rund 200$ (was der RTX3090 entspräche). All das ist sicherlich mittlerweile etwas teurer geworden - sowohl technikbedingt als auch inflationsbedingt, so dass ich die 200$ für ne 3070 schon sehen würde.
Rein nur auf die GPU gesehen haste aber wahrscheinlich Recht, da wird ein GA102 vermutlich nicht mehr als 150 kosten.

Ich kann dir jetzt zwar keine HSK für GPUs nennen, aber vielleicht hilft es zum abschätzen und ich denke da es schon 7 Jahre her ist kann man das auch durchaus nennen. Damals lagen die HSK für eine Basisstation bei 800 US Dollar und von den Bauteilen her, hast da ja deutlich teurere verbaut bzw. allein der Materialeinsatz von Gehäuse usw. ist ja auch deutlich höher. Von daher hätte ich mal gesagt mit einem viertel bis drittel davon kommt man bei den Topmodellen bestimmt gut hin. Natürlich ohne R/D Kosten, rein die Herstellung.

Und dass Intel den Treiberstack komplett in den Sand setzt und dann noch vor allem dauerhaft, kann man wohl getrost ausschließen.

Schön, wie du bei anderen vor allem AMD immer super kritisch bist, es hier aber völlig ausschließt, dass intel die Treiber in den Sand setzt. Im Vergleich zu AMD und Nvidia fehlt ihnen hier schlichtweg die Erfahrung, was vor allem auch bei der Unterstützung von älteren Spielen wichtig ist. Und trotz der jahrelangen Erfahrung von beiden, gibt es immer wieder neue Fehler. Aber klar intel sind ja die besten und unfehlbar:ugly:

Einfach mal abwarten.

Wäre schön, wenn das von dir immer kommen würde und nicht nur, wenn es um intel und deren ungelegte Eier geht.

MLiD erklärte zuletzt mit recht hoher Verlässlichkeit seiner Einschätzung nach, etwas von einer Leistung bis etwa zur RTX 3070 (Ti) (ja, die Ti inkludierte er auch) für das 512er-Model, einen Verbrauch < 240 W und dass Intel angeblich mit einem aggressiven Pricing und ebenso angeblich auch mit vergleichsweise hohen Stückzahlen aufwarten will.

Angeblich. An die 3070 Ti Leistung glaube ich nicht und wenn kommt das auch etwas spät würde ich meinen, immerhin gibt es von AMD und Nvidia 2022 schon die nächste Generation...

Darüber hinaus, AMD liefert nur einen Bruchteil von dem, was nVidia ausliefert und im best case würde man gar mehr GPUs als AMD fertigen, was keinesfalls abwegig wäre, da die derzeit anscheinend immer noch klar CPUs und die Konsolen-SoCs zu priorisieren scheinen.

Klar ich produziere auch direkt mehr GPUs wie einer der etablierten Mitbewerber, obwohl ich noch gar nicht weiß, wie der Markt meine GPUs annimmt... Macht total viel Sinn, nicht.

(Die RDNA2-GPUs sehen bspw. in Steam immer noch kein Land gegen die Ampere-Modelle und das, obwohl angeblich so viele Ampere-Karten bei Minern landen sollen ;-))

Gibt wohl keinen Beitrag von dir, der ohne billiges AMD bashing auskommt? Ansonsten ist diese Aussage für jeden halbwegs des Lesens fähigen Menschen leicht zu verifizieren. Man braucht dafür nur die letzten Quartalszahlen von Nvidia anschauen und stellt fest, dass der Umsatz mit Gaming GPUs durch die Decke ging, sie offensichtlich genügend Kapazität bei Samsung gebucht haben und Gaming und Mining Markt beliefern können. Schaut man sich die Zahlen bei AMD an, wird man feststellen, dass nicht viel Kapazitäten für die GPUs drauf gingen. Eine eindeutige Fehlplanung hinsichtlich der gebuchten Kapazitäten, das ist richtig. Nur was du immer suggerieren möchtest, nämlich dass RDNA 2 schlecht ist und es niemand möchte ist schlicht und ergreifend gelogen und kommt nur in deiner Traumwelt vor.

Zum allgemeinen Tenor des Artikels: Warum sollte Intel sich auch frühzeitig in die Karten schauen lassen. Der Launch ist etwa noch ein halbes Jahr entfernt, da gibt keiner konkrete Werte bekannt. Zudem spekuliert man auch noch, dass es bei nVidia gar einen Refresh geben soll, insofern wäre es gleich doppelt unsinnig dem Konkurrenten jetzt schon vorab konkrete Leistungswerte mitzugeben, damit der seinen Refresh punktgenau darauf ausrichten kann?! ;-)

Zum einen wird Nvidia sehr genau wissen, wie die Leistung in etwa ausfallen wird. Wissen sie bei AMD ja auch immer ;-) Und zum anderen ist es als Neueinsteiger im Markt schon üblich, wenn man zumindest ein bisschen verrät wohin die Leistung geht...Der Kunde sollte ja auch einen Anreiz haben, auf die GPUs zu warten und nicht bei der Konkurrenz zu kaufen.

Nach aktuellem Stand würde ich in den nächsten Monaten bestenfalls nur ein paar zusätzliche, sporadische Detailinformationen erwarten und eine größer Vorstellungrunde oder gar wohlmöglich die offizielle Vorstellung frühestens auf der CES?

Kann man machen, wobei du davon ausgehen kannst, dass AMD und Nvidia da auch etwas teasern werden. Und wenn da die Aussagen kommen wie doppelt so schnell wie die aktuelle Generation, warum dann nicht voll auf die Karten warten bevor ich mir eine intel GPU kaufen, die es nichtmal mit den aktuellen Topmodellen aufnehmen kann?
Zumal Nvidia auch eine große Fanboyschaft hat und ob man davon so viele überzeugen können wird, fraglich.
 
Die Daseinsberechtigung einer Gaming Grafikkarte ist ihre Performance ... wenn man über diesen wichtigen Aspekt nicht reden will, wird die Performance sehr wahrscheinlich nicht gut sein.
Oder bestenfalls in der Mittelklasse angesiedelt sein. Mit hoher Wahrscheinlichkeit auch mit enorm hohen Preisen.

Aber man darf gespannt sein. Ein Dritter im Bunde ist gut, richtig und wichtig. Da würde ich Intel durchaus Glück wünschen.
 
Aber: Es ist höchstwahrscheinlich auch gar nicht das Ziel, die 1% Kundschaft anzugreifen die 3080/90 und 6800/6900 kauft. Wenn ARC in den Segmenten darunter mithalten kann und Intel zusätzlich noch einen echten Kampfpreis ansetzt um im Markt Fuß zu fassen dann wirds interessant. Eine Karte mit der Performance einer RTX3070 für 349$ die breit verfügbar ist würde grobe Verwerfungen (zu unseren Gunsten) auslösen - und im unteren Bereich ist bei AMD und NVidia sowieso gähnende Leere - eine Karte mit 2/3 einer RTX3060-Performance (also so Level GTX1660 Super rum) für 99$ ohne extra Stromanschluss (also mit 75W TDP) als Massenmodell wäre völlig konkurrenzlos.
Wenn sie das Einsteiger - und Mittelklasse Segment zu fairen Preisen bedienen so ist das doch auch erstmal ganz gut.
Bzw für die Grafikkartenkäufer sogar besser. Weil wie du richtig erkennst: die meisten Karten werden nicht im HighEnd-Segment verkauft.
 
Vlt. kaufe ich mir, wenn es soweit ist, eine der Intel Karten (je nachdem wie die performen), einfach weil ich neugierig bin was Intel da so abliefert.

Meine 6900 XT wird mir zwar erstmal für Ewigkeiten reichen (vor allem da ich kaum Triple-A Titel Spiele) aber bei Technik werd ich dann doch immer neugierig. :D
 
Vlt. kaufe ich mir, wenn es soweit ist, eine der Intel Karten (je nachdem wie die performen), einfach weil ich neugierig bin was Intel da so abliefert.
Bin ich dabei !
Für meinen 2. Automat hab ich eine "fest" eingeplant und die R9 390X darf dann zu den anderen an die Ahnengalerie an die Wand ...

MfG Föhn.
 
Ich würde mich über eine Ablösung für meine GTX 1070 freuen. Wenn eine der ARCs dann so zwischen 2070Super und 3060Ti landet wäre ich höchst zufrieden. Für 1080p/60hz reicht das dicke. Wenn die sogar eine 3070 erreicht wäre das krass. Aber weniger wäre auch ok. Hauptsache der Preis stimmt. Niemand erwartet sowas ernsthaft. Hoffe ich mal.

Was ich nicht begreife ist, diese Missgunst. Jeder Mitbewerber, der der Gesetzmäßigkeit des freien Markts folgt, ist gut für den Markt. Vor allem wenn er neu einsteigt und seinen Absatz durch Preisdruck sichern muss. Weil zu gleichen Preisen wie die Etablierten kann Intel die Produkte nicht loswerden.
Einfach nur um nV und AMD ein bisschen unter Druck zu setzen wäre ein Angriff im Preisbereich unter 300€ perfekt.

Im Enthusiastenbereich werden die Leute eh skeptisch sein. Da geht es um jedes Prozent Leistung. Der Preis zählt da einfach nicht. Deshalb ist das auch nicht der Markt der von Intel angegriffen werden sollte.
 
Für was soll das wichtig sein?
Ernst gemeint? :ugly: Na gut, wo soll man da anfangen?!

Am besten hier:
  • Für den Endkunden:
    Mehr Auswahl in dem Segment schadet nicht. Damit steigt die Chance ein für sich passendes Produkt zu finden.

  • Für die Konkurrenz:
    Ein neues Produkt löst gewisse Impulse aus und fördert Forschung, Entwicklung und Wettbewerb.

  • Für den kompletten Logistikkreislauf:
    Wachstum, Arbeitsplätze & Zukunfssicherheit sind wichtige Punkte wenn ein Produkt erfolgreich auf den Markt kommt bzw. sich etabliert. Die Logistik profiert davon enorm.

  • Für die Fertiger & Lieferanten:
    Je nachdem wo Intel fertigen lässt, sind das ganz schöne Produktionskontingente von denen hier die Rede ist. Sowas spült ordentlich Taler in die Kassen der Fertiger und Lieferanten. Wachstum, Arbeitsplätze & Zukunfssicherheit sind so garantiert.

  • Für Intel:
    Das sammeln von Know-How ist extrem wichtig. Ebenso das erschließen von neuen Märkten und Kundenkreisen. Und damit sind unweigerlich auch Wachstum, Arbeitsplätze & Zukunfssicherheit verbunden.

  • Für uns Nerds:
    Mehr Diskussionsstoff ist immer gut.

  • Für Hardwaretestseiten/Magazine/YouTube-Techchannels:
    Wachstum, Arbeitsplätze & Zukunftssicherheit

  • Für Hardwarehändler/OEMs:
    Etabliert sich das Produkt und wird gut angenommen, dann steigen auch die Gewinne. Und damit auch das Wachstum, Arbeitsplätze & Zukunftssicherheit.

Der Weg um neue Hardware am Markt zu etablieren ist nicht einfach. Aber wie sagte Elon Musk einmal?
"Failure is an option here. If things are not failing, you are not innovating enough."


Gruß
Pain
 
Warum nicht? Ob sie hier Land sehen, bestimmt einzig das P/L-Verhältnis und ob sie liefern können, mehr nicht. Intel könnte selbst im unteren Segment den Markt mit einem aggressiven Preis aufmischen, aktuell geht man gar von einer RTX 3070 (Ti)-Leistung aus und das ist schon deutlich mehr als einfache Mittelklasse. würde also schon vollkommen ausreichen für einen potentiell guten Start.
Und dass Intel den Treiberstack komplett in den Sand setzt und dann noch vor allem dauerhaft, kann man wohl getrost ausschließen. Xe-HPG ist eine komplett andere Ausrichtung als das, was sie bisher mit den iGPUs betrieben haben. Das wird vermutlich nur eingeschränkt (wenn überhaupt) übertragbar sein; konkret tendenziell eher gar nicht, weil sie den Bereicht GPU-Treiiber- und -Software-Entwicklung komplett umgestellt haben. Hier wird man sich also überraschen lassen müssen.

Xe HPG nutzt den gleichen Core-Treiber wie die integrierten Xe, von daher kann man die Lage bei Rocket und Tiger Lake sehr wohl übertragen bzw. muss halt extrapolieren, was in den nächsten 6 Monaten noch dazu kommt.

3070-Leistung ist übrigens sooo 2020, während Xe HPG gerene "22" und "Enthusiast" sein möchte.


Damit sie weiter machen und das Projekt nicht einstampfen. Das geht nämlich auch manchmal ganz schnell.

In der Vergangenheit brauchte Intel meist 2-3 Jahre, um von einem toten Pferd runterzukommen. Wenn weiterhin mit Fremdfertigung geplant wird, dann dürfte es im Moment schon zu spät sein, Battlemage zu stoppen und ehe sich Alchemist am Markt als vollwertiger Flop erwiesen hat, wäre bereits Celestial am Point of no Return. Sollte sich Intel also im Moment seiner Sache noch sicher sein, dann werden sie mindestens drei Jahre lang am Markt vertreten sein. Natürlich kann man diese Bedingung nicht prüfen. Das Erscheinen von Xe HPG erfolgt ja bereits rund ein Jahr später als erwartet und Xe HPC ist auch nicht so wirklich on track, also könnten die internen Planungen schon deutlich kritischer als die offiziellen Marketingfolien aussehen. Andererseits sind die Produkt-Launches von AMD und Nvidia jetzt auch nicht gerade ein Dauerfeuer und zumindest ich hänge weiterhin der Theorie an, dass Intel das gesamte Grafikkartenprojekt gestartet hat, um künftig die eigene Fertigung über einen längegeren Zeitraum einsetzen zu können (niedrigtaktende GPUs als Speerspitze vor CPUs) und neu geschaffene Kapazitäten allgemein besser auszulasten. Solange ihre neuen Foundry-Pläne nicht durchstarten wäre Arc dann unverzichtbar.
 
Zuletzt bearbeitet:
Von der Technik her schon. Vom Preis her nicht.:)

Ich bin gespannt was Intel so machen wird. Momentan kann es bei der Marktlage nur Gewinner geben.
Das sind die zweitgrößten Chips von beiden Unternehmen.
Navi22 ist 335mm² groß und GA104 392mm².
Da trifft es der Ausdruck "Mittelklasse" ganz bestimmt nicht.
Die Preis sind natürlich dennoch jenseits von Gut&Böse.

Als Mittelklasse kann man viel eher Navi23 (6600) oder die 3060 bezeichnen.
DG2-512 bzw. der größte Intel-Chip wird darüber landen.

Ich denke selbst ohne attraktive Karten gewinnt der Konsument schon dank Intels Einfluss.
XeSS ist eine tolle Technik und wird früher oder später Herstellerübergreifend über DX12 bzw. DP4a funktionieren, davon profitiert dann jeder.
 
Xe HPG nutzt den gleichen Core-Treiber wie die integrierten Xe, von daher kann man die Lage bei Rocket und Tiger Lake sehr wohl übertragen bzw. muss halt extrapolieren, was in den nächsten 6 Monaten noch dazu kommt.

3070-Leistung ist übrigens sooo 2020, während Xe HPG gerene "22" und "Enthusiast" sein möchte.
Ich bezog mich bzgl. der "Übertragungsmöglichkeit" auf die Versuche einige User hier aufgrund von etwaigen Problemen mit alten iGPU v9.x HW/Treibern auf Xe zu schließen und das denke ich, wird man eher weniger übertragen können, da Intel hier allem Anschein nach für Xe beträchtlich umstrukturiert zu haben scheint. (Zumal man in Interviews, die man zu diesen Themen über die Zeit lesen konnte, verantwortlichem Schlüsselpersonal durchaus die Rolle und Wichtigkeit des Software-Stacks bewusst zu sein scheint.)

Wie wer auch immer das Niveau mit einem Titel belegen will, ist mir eigentlich relativ gleich. Mir ging es lediglich darum das spekulierte Niveau zu skizzieren bzw. in Relatin zu setzen (so u. a. von MLiD angegeben). Ob das am Ende tatsächlich so eintreffen wird, bleibt ja auch vorerst abzuwarten, da bisher nicht mehr als ein Leak. ;-)

Schön, wie du bei anderen vor allem AMD immer super kritisch bist, es hier aber völlig ausschließt, dass intel die Treiber in den Sand setzt. Im Vergleich zu AMD und Nvidia fehlt ihnen hier schlichtweg die Erfahrung, was vor allem auch bei der Unterstützung von älteren Spielen wichtig ist. Und trotz der jahrelangen Erfahrung von beiden, gibt es immer wieder neue Fehler. Aber klar intel sind ja die besten und unfehlbar
Zu deinem Leidwesen bin ich das nicht [selektiv kritisch], schlicht ein haltloses Argument. Und ja, obiger Sachverhalt lässt sich tatsächlich zuverlässig ausschließen, da ein vollkommenes "in den Sand setzen" implizit ebenso bedeutet, ein unbrauchbares Produkt auf den Markt zu werfen und das kann man dem Marktführer nun nicht wirklich vorwerfen. Ich weiß, in deiner Blase ist das schwer zu akzeptieren, aber das ist dann auch schlicht dein persönliches Problem.
Und nein, mit deiner Pseudo-Rethorik a la "intel sind ja die besten und unfehlbar", kommst du leider auch nicht weiter, denn derartiges ist bei mir nirgends zu lesen (und so etwas gab es von mir auch noch nie zu lesen, übrigens zu keinem Hersteller) ... das ist halt leider immer nur das, was du unbedingt verstehen willst, jedoch gibt es einen eklatanten Unterscheid zwischen dem was ich tatsächlich schreibe und dem was du da reininterpretieren möchtest.

Und nein, ich muss nicht superkritisch bei Intel sein, weil das schon zumeist aberdutzende von AMD-Fans vorwegnehmen (oder aber, wenn man der News nur ein klein wenig "Reifezeit" zugesteht, die das totsicher nachholen werden). Manche kritisieren tatsächlich rein sachkritisch und nachvollziehbar, andere dagegen ...
Insofern ist es wohl eher weniger zweckdienlich, dass ich einfach nur den gleiche Sachverhalt (wenn angebracht und zutreffend) noch einmal strumpfsinnig nachplappere, wie ihn schon Dutzende zuvor gepostet haben, selbst wenn ich das genau so oder zumindest so ähnlich sehe.
Wäre schön, wenn das von dir immer kommen würde und nicht nur, wenn es um intel und deren ungelegte Eier geht.
Leider nicht mehr als ein Beleg für deinen Bias, denn ein "einfach mal abwarten", ist bei mir vergleichsweise häufig zu lesen, zu allen möglichen Leaks von den unterschiedlichsten Herstellern. Dass dich das natürlich nicht interessiert sondern vor dir nur krampfhaft mit Intel in aufwertendem Sinne in Verbindung gebracht wird, ist natürlich klar, wenn man dich kennt.
Darüber hinaus greift jedoch auch hier leider die gleiche verzerrende Mechanik: Viele Fans erklären positiv klingede Leaks zu AMD grundsätzlich gleich zum Fakt (ein entsprechendes Beispiel liefert auch gleich dieser Thread hier mit), während bei der Konkurrenz, also in dem Falle typischerweise Intel und nVidia grundsätzich vollkommen ähnlich gelagerte Leaks vergleichbarer Informationslage und Glaubwürdigkeit grundsätzlich in die entgegengesetzte Richtung ausgelegt werden.
Es mag sein, dass dir eine derartige Beobachtung schwer fällt als jemand, der in dieser speziellen Blase sitzt. Dagegen von außen betrachtet ist diese deutliche Schieflage sehr leicht zu erkennen.
Angeblich. An die 3070 Ti Leistung glaube ich nicht und wenn kommt das auch etwas spät würde ich meinen, immerhin gibt es von AMD und Nvidia 2022 schon die nächste Generation...
Das "angeblich" ist in einem derartigen Kontext bei mir grundsätzlich "implizit", da ich hier einen "Leaker" zitiere. Derartige Aussagen können immer nur ein "angeblich" bedeuten; traurig, dass das immer wieder aufs Neue erklärt werden muss.
Darüber hinaus, "hoher Verlässlichkeit" und "Niveau bis zu einer RTX 3070 (Ti)" sind direkte Zitate von ihm (wie auch die anderen Punkte in deinem Zitat aus meinem Post) und keine Interpretation oder Wertung von mir. Wenn du nicht verstehst wie MLiD kommuniziert und seine Informationen kategorisiert, solltest du dich vielleicht mal vorab informieren ... und auch etwaige Kritik direkt an ihn richten. Ich habe hier lediglich 1:1 zitiert.

Ganz im Gegenzug dazu du: Ich habe lediglich einen vergleichenden Bezug hergestellt, der eine grobe Einordnung ermöglicht (zumindest soweit vermutet), du dagegen kommst direkt mit einer Wertung ums Eck a la "zu spät" ... und alles was darin mitschwingt. ;-)
Klar ich produziere auch direkt mehr GPUs wie einer der etablierten Mitbewerber, obwohl ich noch gar nicht weiß, wie der Markt meine GPUs annimmt... Macht total viel Sinn, nicht.
Und dann gleich wieder eine weitere Demonstration deines Bias, der dir offensichtlich die Aufnahme meiner Worte gänzlich zu verwehren scheint.
Einerseits gibt es aktuell nur zwei Hersteller und ich rede hier als Vergleich einzig von AMD, dem deutlich kleineren Player, der bei AIBs und dGPUs einen Marktanteil von <= 1/5 hat und offensichtlich bei RDNA2 immer noch mit angezogener Handbremse fertigt. Entsprechend ist es auch nicht abwegig, dass Intel hier ein grob vergleichbares Volumen in den Markt bringt oder aber bei einem tatsächlich aggressiven Preis vergleichbar viel oder gar mehr absetzen kann, denn auch wenn es dir schwerfällt, aber der Markt trifft hier deutlich rationalere Kaufentscheidungen im Mittel. Sieht man sich die RDNA2-Absatzzahlen an, scheint ein "ich kaufe grundsätzlich nur AMD" offensichtlich nur in eingeschränktem Rahmen über den Markt zu greifen, denn ansonsten würden AMDs Absatzzahlen anders aussehen.
Und darüber hinaus, dass das lediglich ein mögliches Szenario ist, sollte schon aus meinem "im best case" hervorgehen, aber das scheint dann immer noch zu schwer zu verstehen sein .... Und diese zugewiesene Bedingung sollte auch eigentlich indirekt grob reflektieren, wie hoch ich die Wahrscheinlichkeit für ein derartiges Szenario einschätze, aber schön zu sehen, dass du nach einem so einfachen Muster gestrickt bist und nur nach ein paar triggernden Schlagworten suchst um deine Erwartungshaltung zu bestätigen.
Gibt wohl keinen Beitrag von dir, der ohne billiges AMD bashing auskommt? Ansonsten ist diese Aussage für jeden halbwegs des Lesens fähigen Menschen leicht zu verifizieren. Man braucht dafür nur die letzten Quartalszahlen von Nvidia anschauen und stellt fest, dass der Umsatz mit Gaming GPUs durch die Decke ging, sie offensichtlich genügend Kapazität bei Samsung gebucht haben und Gaming und Mining Markt beliefern können. Schaut man sich die Zahlen bei AMD an, wird man feststellen, dass nicht viel Kapazitäten für die GPUs drauf gingen. Eine eindeutige Fehlplanung hinsichtlich der gebuchten Kapazitäten, das ist richtig. Nur was du immer suggerieren möchtest, nämlich dass RDNA 2 schlecht ist und es niemand möchte ist schlicht und ergreifend gelogen und kommt nur in deiner Traumwelt vor.
Nein, da verkennst du mich komplett. Mit billigem Bashing gebe ich mich nicht ab, aber schön zu sehen, dass du es in umgekehrter Weise immer wieder mit einer gehoberen und subtileren Variante zu versuchen scheinst.
Es ist durchaus bezeichnend für dich, dass die bloße Erwähnung eines leicht nachvollziehbaren Fakts bei dir zu einem derartigen Beißreflex führt. Und nein, der Fakt sind nicht die konkreten Zahlen an sich, sondern erst mal nur schlicht die dort abrufbaren statistischen Daten. Du kannst die gerne anzweifeln, aber das musst du dann mit Steam/Valve ausmachen und nicht mit mir. *) Darüber hinaus wirst du aber absehbar keinen validen Grund finden, die dort dargestellten Verhältnisse anzuzweifeln, denn die sind schon seit über einem halben Jahr unverändert und konsistent.

Und erneut nein, deine nachfolgende Argumentation über Kapazitäten geht vollkommen an dem vorbei was ich geschrieben habe, da ich nur den vermeintlichen Ist-Zustand zum voraussichtlichen Volumen beschrieb. Ob das nun von AMD eine Fehlplanung war, habe ich dagegen komplett offen gelassen und auch nichts diesbezüglich angedeutet.
Und dass AMD selbst diesen Sachverhalt als "Fehlplanung" bezeichnen würde, wage ich mal anzuzweifeln. Die Entscheidung zu diesem Vorgehen wird dort schlicht nach wirtschaftlichen Gesichtspunkte erfolgt sein, und eine wünschenswerte Gewichtung aus Marktwachstum und Umsatz herbeiführen im Rahmen von deren Möglichkeiten und vermutlich waren ihnen GPUs schlicht weniger wichtig als ihre anderen Marktsegmente. Wenn du das gleich als Fehlplanung bezeichnen möchtest, steht dir das natürlich frei. ;-)

*) Darüber hinaus ist die Diskussion um die Validität oder Exaktheit der Steam-Daten mittlerweile nervtötend, da von "Ablehnern" in letzter Konsequenz immer nur deren eigenes Bauchgefühl als Gegenargument angeführt wird. Dass Steam/Valve hier ein natürliches Interesse hat ihre Plattform relativ akkurat abzubilden, dürfte in ihrem ureigensten Interesse liegen, denn die verdienen mit den Daten Geld. Und diese Umsätze wäre in Gefahr, wenn man hier "Zufallsdaten oder anderweitig falsche Daten", wie von vielen unterstellt, ermittelt, denn auch andere Clients erheben selbstredend diese Daten und wären dementsprechend für Publisher/Entwickler im Falle einer dort akkurateren Abbildung weitaus interessanter.
Epic bspw. erhebt vollkommen automatisch u. a. "Technical information about your computer, device, hardware, or software you use to access the Internet or our service ..." (siehe deren aktuelle Policy).
Zum einen wird Nvidia sehr genau wissen, wie die Leistung in etwa ausfallen wird. Wissen sie bei AMD ja auch immer ;-) Und zum anderen ist es als Neueinsteiger im Markt schon üblich, wenn man zumindest ein bisschen verrät wohin die Leistung geht...Der Kunde sollte ja auch einen Anreiz haben, auf die GPUs zu warten und nicht bei der Konkurrenz zu kaufen.
Es mag sein, dass es in deiner Welt keinen Unterschied zwischen einer "gut begründeten Vermutung" und "tatsächlichem Wissen" gibt, in meiner ist das schon ein deutlich voneinander zu unterscheidender Sachverhalt.
Und "ihr" solltet euch mal so langsam entscheiden, was denn nun der Fall im typischen RDNA2<>Ampere-Zwist ist: Wusste nVidia nun schon im Vorfeld alles und sehr genau was kommen würde oder wurden sie nun von AMD "überrollt", "kalt erwischt" oder was auch immer "ihr" denen so gerne unterschiebt. Hier kann man nicht unentwegt das Fähnchen im Wind drehen, wie man es gerade braucht. ;-)
Kann man machen, wobei du davon ausgehen kannst, dass AMD und Nvidia da auch etwas teasern werden. Und wenn da die Aussagen kommen wie doppelt so schnell wie die aktuelle Generation, warum dann nicht voll auf die Karten warten bevor ich mir eine intel GPU kaufen, die es nichtmal mit den aktuellen Topmodellen aufnehmen kann?
Zumal Nvidia auch eine große Fanboyschaft hat und ob man davon so viele überzeugen können wird, fraglich.
Nein, auch hier wieder das leidliche Leseproblem deinerseits, denn bei mir ist nichts von expliziten oder impliziten Annahmen zu lesen. Ich habe lediglich formuliert, wie ich erwarte, dass in der nächsten Zeit Xe-HPG-Infohäppchen auf uns zukommen werden. Was dagegen AMD und nVidia machen, bewegt sich vollkommen außerhalb des Scopes meiner Aussage und das wird konkret nicht mal einen nennenswerten Einfluss darauf haben, wann Intel die größeren Infohappen freigibt oder gar den Launch vollziehen wird, denn auch hier kann man sich leicht ausrechnen, dass sie eher früher als später veröffentlichen würden, es aber offensichtlichlich bzgl. dem Projektstatus nicht eher können und so wird man sich weitestgehend an den gesteckten Plan halten.

Und warum sollten Kaufwillige nun kategorisch auf AMD und nVidia warten, die vermutlich erst 6+ Monate später veröffentlichen werden ... und Intel meiden? In deiner Welt mag das eine plausible oder wünschenswerte Verhaltensweise sein, der Markt insgesamt zeigt eher weniger solche Tendenzen, sondern hier wird gekauft, wenn man was braucht oder haben will und wenn es P/L-technisch attraktiv ist. Wäre dem nicht so, wäre die PC-GPU-Sparte von AMD schon vor längerer Zeit geschlossen worden.
Aber schön zu sehen, dass deiner Meinung nach ein nennenswerter Teil der Absatzzahlen bei nVidia auf ihre "Fanboyschaft" zurückzuführen sein soll. Und du meinst, das ist bei AMD etwa nicht der Fall? Mir scheint du hast hier einen nennenswerten Teil der Forenuser auf "Ignore" stehen oder aber überliest deren Postings sehr nachsichtig, denn andernfalls würde dir aufgehen, dass die in exakt der gleichen Art und Weise ticken.
Darüber hinaus, dass nVidia's Martkführerschaft auch zu einem gewisse Teil schlicht auf leistungstechnische Gründe i. V. z. Konkurrenz zurückzuführen sein kann, ist anscheinend ein vollkommen neuer und nicht nachvollziehbarer Gedanke für dich, oder wie soll man deine Aussage jetzt verstehen? ;-)

Schlussendlich: Intel wird ihre HPG-GPUs absetzen (wie viele, wird man abwarten müssen, zweifellos jedoch mehr als nur "eine Hand voll", wie so manche gerne suggerieren zu versuchen, warum auch immer, den markttechnisch begründet sind derartige Aussagen keinesfalls) und das wird sowohl AMD als auch nVidia Marktanteile und Umsatz kosten, was schlicht daran liegt, dass mit Intels Martkeintritt nicht plötzlich aus heiterem Himmel der GPU-Markt zu wachsen beginnt. Wen es hier am Ende härter treffen wird, bleibt abzuwarten. Angesichts der Tatsache, dass nVidia die deutlich größeren Umsätze und Marktanteile hat, kann man davon ausgehen, dass AMD eher der Leidtragende sei wird, denn die Entwicklungskosten werden nicht kleiner und bei sich verringerndem Umsatz werden diese zunehmend schwerer auf die Marge und Bilanz drücken. Tendenziell dürfte dieses Szenario aber eher für AMDs AIBs zutreffen. Bei mobilen dGPUs dagegen könnte eher nVidia der Leidtragende sein, denn hier wird weitaus mehr nVidia als AMD verbaut/kauf und hier könnte Intel mit Bundling-Preisen einige nVidia-Einstiegsmodelle in nennenswertem Umfang verdrängen, insbesondere bei größeren OEMs. Wie sich das insgesamt entwickeln wird, wird man abwarten schlussendlich natürlich abwarten müssen.
Darüber hinaus ist deine Skizzierung des bevorstehenden Releases der NextGen der etablierten Player aber auch wenig hilfreich, denn wer länger wartet, hat potentiell immer Zugriff auf leistungsfähigere HW oder HW mit einem besseren P/L-Verhältnis. Das Szenario könnte man auch gleich noch einen Schritt weiterspinnen und dann fordern, dass Interessenten doch einfach noch ein paar Monate länger warten sollten, denn bereits in 2023 soll Intels 2nd Gen Xe Battlemage erscheinen und die wird ebenso zweifellos, weil markttechnisch schlicht unumgänglich, irgendwelche zusätzlichen Features und Leistungszugewinne präsentieren müssen ... Und dann könnte man wieder argumentieren, dass man RDNA3 doch besser links liegen lassen sollte, denn RDNA4 ist ja auch nicht mehr sooo fern und vielleicht ein ausgereifteres MCM-Design als dieser RDNA3-Erstlingswurf, usw., usw.
 
Ich bezog mich bzgl. der "Übertragungsmöglichkeit" auf die Versuche einige User hier aufgrund von etwaigen Problemen mit alten iGPU v9.x HW/Treibern auf Xe zu schließen
Fun Fact: Die "alten" pre-Xe (U)HD GPUs profitieren sogar vom Neuaufbau des Treiberteams über die letzten Jahre.

Interesanterweise gibts aktuell vorallem unter D3D12 noch vermehrte Probleme. Und sie müssen die teilweise auftretenden Grafikfehler unbedingt in Griff bekommen.
 
Zurück