Intel Arc Alchemist: Raja Koduri über die Gaming-Grafikkarten

Ich fands schon immer lustig, wie irgendwelche Leute zu der Meinung kommen, jemand wäre unfähig. Bei Raja war mir das besonders aufgefallen, damals auch schon bei Polaris und den folgenden Produkten. Hauptsache man basht immer denjenigen, der das Produkt präsentiert.

Seinen Lebenslauf findet man ja einfach auf Linked in, demnach war er von 2013 bis 2017 bei AMD.
Ich kenn mich nicht darin aus, wie lange es dauert, eine neue Architektur zu entwickeln. 4 Jahre müssen es ja mindestens sein, schließlich ist er jetzt so lange bei Intel. Der Zeitraum spricht daher eher dafür, dass er vor allem zu RDNA viel beigetragen hat.

GCN kam schließlich schon 2011 auf den Markt, da war er übrigens noch bei Apple. Bis 2013. Bekanntlichermaßen steht Apple jetzt auch alles andere als schlecht da im GPU-Bereich.
Wobei, auch auf GCN 1.0 - eine gelungene Arch damals - wird er noch großen Einfluss gehabt haben, schließlich war er bis 2009 bei AMD, bevor er zu Apple wechselte.

Und selbst wenn irgendjemand ein nicht so erfolgreiches Produkt entwickelt, muss man denjenigen dann als unfähig betiteln - bzw ist dann immer alles schlecht, womit diese Person zu tun hat? Sozusagen Perfektion als Mindestmaß? Komische Auffassung
 
Ob sich Intel mit Kuduri einen Gefallen getan hat wird sich noch raus stellen, ich meine Vega war was den gaming Anteil anging, sehr umstritten.
Also so "richtiger Fan" bin ich von Koduri jetzt auch nicht. Der kann schon was, Habe "sein" Projekt mit dem Kauf einer Vega 56 (UV/OC) unterstützt und bis Dato noch nicht bereut ...

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Ich weiß gar nicht warum es nötig war darauf zu antworten. Trotzdem danke dafür Av4l.
Es ist doch mittlerweile offensichtlich und dürfte auch der letzte mitbekommen haben das die Person(gleich erster Kommentar) hier dieses Forum nur zum Trollen, provozieren und dumm rumm labern nutzt. Im luxx traut er sich sowas nicht....
 
Ach Intel optimiert die Karten einfach n bissel für sehr viele megahash die Sekunde ohne kryptobremse und gut ist


Solang man an die schürfleistung einer 3070/3080 NonLHR kommt ist es vollkommen wurscht wie gut die Treiber zum zocken sind, wie oft die geupdated und an spiele angepasst werden..Und wie viele FPS am Ende dabei rauskommen.

Spieler sind kein so interessanter Kundenkreis wie Miner.. bezahlen die doch mehr, kaufen mehrere und sind recht Anspruchslos was den Support angeht.

und das ist genau das Stück vom Kuchen was Intel will
 
Wirklich? Für mich klang das größtenteils eher spekulativ.
Naja, es gibt Leaks und es gibt Leaks ^^

Sicher is ja mittlerweile:


512 EU mit 4096 FP32 Shadern

8 Render Slices (also sehr gute Geometrie und Rasterizer Perf.)

2,2+ GHz

256 Bit Bus mit 16-18Gbps (vllt sogar höher)

16GB

225-275W


Also für den Vollausbau vom großem Chip.
 
Zuletzt bearbeitet:
Erst mal abwarten was das Future kann! Erstmal abwarten was kommt bevor man es bewertet.

Über Nvidia DLSS haben zu beginn auch viel gemeckert, und heute schwören ebenso viele Stein und Bein es ist das Non Plus Ultra für die Zukunft des Gaming.
Äpfel vs. Birnenvergleich. Und wer hält das bitte für das „Non Plus Ultra“. Im Prinzip sind DLSS sowie FSR nichts anderes als Krücken um fehlende Rechenleistung (insbesondere für Raytracing) auszugleichen. Warum ein herunterskalieren der Grafik das „Non Plus Ultra“ sein sollte, ergibt sich mir nicht.

Cloud Gaming nimmt auch fahrt auf obwohl so abwertend darüber gesprochen wurde.
Wo nimmt das bitte Fahrt auf? Mit Google Stadia?

AMDs SAM wurde negativ kritisiert und gesteinigt, bis...plötzlich rBar ein "Standard" future wurde. Und jetzt redet keiner mehr drüber.
Hätte ich nicht mitbekommen. War höchste Zeit dass dieses PCIe Standardfeature mal ankam. Die einzige Kritik daran war, dass SAM bei GraKa-Tests bei AMD aktiviert war und es bei Nvidia damals nichts vergleichbares gab.
 
Sry, aber erst seit er bei AMD weg ist, läufts auch mit der GPU Sparte.
Ich glaube der Mann überschätzt sich selber etwas. Aber gut. Vlt. hat er seine Fehler bei AMD eingesehen. Und hat sich geistlich nochmal weiterentwickelt? Möglich wärs. Mal abwarten.
 
Erst mal abwarten was das Future kann! Erstmal abwarten was kommt bevor man es bewertet.

Über Nvidia DLSS haben zu beginn auch viel gemeckert, und heute schwören ebenso viele Stein und Bein es ist das Non Plus Ultra für die Zukunft des Gaming.
Cloud Gaming nimmt auch fahrt auf obwohl so abwertend darüber gesprochen wurde.
AMDs SAM wurde negativ kritisiert und gesteinigt, bis...plötzlich rBar ein "Standard" future wurde. Und jetzt redet keiner mehr drüber.

Die Farbe ist Mir im übriegens egal. Obwohl ich ein Sichtfenster habe, kann das Ding von mir aus gerne auch Pink sein. Und die verbreitete Farbgebung kommt dann eh mit den Modellen der Partner.

Abwarten! Vielleicht wirds geil!

denoch wäre ein "AMD" YInMn irgendwie geiler als pink :ugly:

Erst einmal gehe es darum, eine Installationsbasis zu errichten. Mining-Farmen sieht Intel laut Interview nicht als Teil dieser Installationsbasis
Abwarten. Ob es die Karten zu kaufen gibt ist nur 50% der Münze.
 
Sry, aber erst seit er bei AMD weg ist, läufts auch mit der GPU Sparte.
Ich glaube der Mann überschätzt sich selber etwas. Aber gut. Vlt. hat er seine Fehler bei AMD eingesehen. Und hat sich geistlich nochmal weiterentwickelt? Möglich wärs. Mal abwarten.
Weil es ja natürlich nur an einer Person liegt das es in einem Milliarden Konzern nicht lief.... kanntest du seine Vorgaben? Die Mittel? Weißt du was intern abging? Warst du involviert um solch eine Einschätzung zu tätigen? Oder machst du dich nur wichtig? Schau dir mal sein CV an... der Mann ist nicht auf den Kopf gefallen sonst wäre er nicht bei solchen Technolohieführern in leitetenden Positionen tätig gewesen. Das einzigste was man vielleicht beurteilen kann ist sein mediales Auftreten. Für mich persönlich ein wenig zu viel "Rampensau". Aber nur weil das nicht mein Stil wäre...
 
Zuletzt bearbeitet:
Weil es ja natürlich nur an einer Person liegt das es in einem Milliarden Konzern nicht lief.... kanntest du seine Vorgaben? Die Mittel? Weißt du was intern abging? Warst du involviert um solch eine Einschätzung zu tätigen? Oder machst du dich nur wichtig? Schau dir mal sein CV an... der Mann ist nicht auf den Kopf gefallen sonst wäre er nicht bei solchen Technolohieführern in leitetenden Positionen tätig gewesen. Das einzigste was man vielleicht beurteilen kann ist sein mediales Auftreten. Für mich persönlich ein wenig zu viel "Rampensau". Aber nur weil das nicht mein Stil wäre...
Nun, er war Chef Designer der GPU Sparte soweit ich weiß. Und natürlich ist er dann der Hauptverantwortliche, wenn es eben nicht so läuft. Wenn er wirklich so unbezahlbar gut war. Wieso hat AMD in dann gehen lassen? Wieso läuft es mit RDNA so gut, seit er weg ist?

Schlaumeier. Steck dir deine Beleidigungen und aggressiven Ton doch sonst wo hin.
 
Zuletzt bearbeitet:
Man muss Raja an RDNA messen und nicht an VEGA.

Ich wünsche Intel einen erfolgreichen (Wieder-)Einstieg ins GPU Business damit die Zukunft noch spannender wird mit einem Player mehr am Markt.
 
Mit einem 3070 Konkurrenten der wirklich für 600€ bis zum Kunden kommt, könnte Intel unfassbar viel positive Reaktion erhalten. Zumindest war das ja was die geleakten Slides im September unterstellt haben.
Nachdem Intel die Chips bei TSMC produzieren lässt kannst du die Hoffnung gleich wieder begraben.
Selbst wenn die Leistung auf dem Niveau sein sollte, so konnte Intel als Neuling bestimmt keine ausreichenden Kapazitäten buchen um die aktuelle Nachfrage auch nur ansatzweise zu befriedigen.
 
Äpfel vs. Birnenvergleich. Und wer hält das bitte für das „Non Plus Ultra“. Im Prinzip sind DLSS sowie FSR nichts anderes als Krücken um fehlende Rechenleistung (insbesondere für Raytracing) auszugleichen. Warum ein herunterskalieren der Grafik das „Non Plus Ultra“ sein sollte, ergibt sich mir nicht.


Wo nimmt das bitte Fahrt auf? Mit Google Stadia?


Hätte ich nicht mitbekommen. War höchste Zeit dass dieses PCIe Standardfeature mal ankam. Die einzige Kritik daran war, dass SAM bei GraKa-Tests bei AMD aktiviert war und es bei Nvidia damals nichts vergleichbares gab.
1.
Sehr viele tun das! Und es ist obwohl ich es selbst nicht nutze, eine wirklich gute Möglichkeit fehlende Rechenleistung besonders im Bezug auf RT Auszugleichen. Bei den Preisen wohl bemerkt.

Dir ist ja sicherlich klar das, der unbestreitbar kleinste Teil aller PC-Gamer eine High-End Karte besitzen.
Die meisten spielen mit Mittel-Klasse Karten der letzen gut 3-4 Generationen, Plus/Minus.
Nur sehr wenig sind bereit 500€ und mehr(!) für eine Gaming-GPU zu zahlen.

Und ja genau das es ist für die meisten "Normalo-Spieler" eine wirklich Herrausragende Möglichkeit die Leistung "Quasi" zu erhöhen fast Ohne Detailverlust manchmal sogar Gewinnen, und vor allem ohne einen "Monatslohn" auszugeben für ein kleines Stück Plastik was in 2 Jahren eh nur noch Mittelklasse ist.

2.
Es nimmt Fahrt auf, sie dir die zahlen an. Negativbeispiele eignen sich immer gut um Aussagen zu zerschlagen...

3.
Ach ist das so!?

;)

Du hast eine sehr selektive Wahrnehmung
Oder einfach nicht Spekulativ, über völlig unbekannte Ereignisse der Zukunft. Die mir sowiso niemand aufzwingt!
 
Zuletzt bearbeitet:
[
1.
Sehr viele tun das! Und es ist obwohl ich es selbst nicht nutze, eine wirklich gute Möglichkeit fehlende Rechenleistung besonders im Bezug auf RT Auszugleichen. Bei den Preisen wohl bemerkt.

Dir ist ja sicherlich klar das, der unbestreitbar kleinste Teil aller PC-Gamer eine High-End Karte besitzen.
Die meisten spielen mit Mittel-Klasse Karten der letzen gut 3-4 Generationen, Plus/Minus.
Nur sehr wenig sind bereit 500€ und mehr(!) für eine Gaming-GPU zu zahlen.

Und ja genau das es ist für die meisten "Normalo-Spieler" eine wirklich Herrausragende Möglichkeit die Leistung "Quasi" zu erhöhen fast Ohne Detailverlust manchmal sogar Gewinnen, und vor allem ohne einen "Monatslohn" auszugeben für ein kleines Stück Plastik was in 2 Jahren eh nur noch Mittelklasse ist.
Dir ist aber schon bewusst, dass DLSS nur auf den RTX Karten geht, und damit der größte Teil der PC-Gamer überhaupt nichts davon hat? Und genau deshalb ist es eben die „herrausragende Möglichkeit“ für die Minderheit der PC-Gamer, die eine RTX-Karte ihr eigen nennen. Alle anderen werden wohl auf FSR zurückgreifen .

2.
Es nimmt Fahrt auf, sie dir die zahlen an. Negativbeispiele eignen sich immer gut um Aussagen zu zerschlagen...
Dann nenn doch bitte mal Quellen…

3.
Ach ist das so!?

;)
Genauso war das…
 
Ich weiß gar nicht warum es nötig war darauf zu antworten. Trotzdem danke dafür Av4l.
Direkt weiter unten geht's ja wieder los ;)
Bzw über diesem Post.

Nun, er war Chef Designer der GPU Sparte soweit ich weiß. Und natürlich ist er dann der Hauptverantwortliche, wenn es eben nicht so läuft. Wenn er wirklich so unbezahlbar gut war. Wieso hat AMD in dann gehen lassen? Wieso läuft es mit RDNA so gut, seit er weg ist?

Schlaumeier. Steck dir deine Beleidigungen und aggressiven Ton doch sonst wo hin.

Wenn Raja Koduri 2013 zu AMD geht, dann war das wahrscheinlich hauptsächlich für RDNA. Da waren die folgenden GCN Architekturen wahrscheinlich eh schon so weit, dass er da nicht mehr viel beeinflussen konnte.

Jim Keller hat ja AMD btw auch schon wieder verlassen, bevor Ryzen 1000 released wurde. Nämlich schon 2015, was ziemlich ähnlich aussieht im Vergleich zu Koduri, der 2017 zu Intel wechselte - auch zwei Jahre vor Markteinführung der Arch.
 
[

Dir ist aber schon bewusst, dass DLSS nur auf den RTX Karten geht, und damit der größte Teil der PC-Gamer überhaupt nichts davon hat? Und genau deshalb ist es eben die „herrausragende Möglichkeit“ für die Minderheit der PC-Gamer, die eine RTX-Karte ihr eigen nennen. Alle anderen werden wohl auf FSR zurückgreifen .


Dann nenn doch bitte mal Quellen…


Genauso war das…
Du hattest ja FSR mit in Rennen gebracht. Daher meine Aussage die zugegebenermaßen etwas uneindeutig war.sry
Und dennoch ist AUCH der größte Teil der (Nvidia Only RTX) DLSS nutzer eben Mittelklasse, und nur sehr sehr wenige im Gehobenen oder High End Bereich unterwegs

Ich Quellen? Google doch die Zahlen der Gaming Stream Anbieter bitte selbst. Du kannst meine Aussage nicht als falsch belegen in dem du irgendwelche Quellenangaben als nichtig bemängelst. Deshalb erarbeite dir deine Antwort bitte selbst. Damit wir das dann überspringen.

Ja kann sein das du Genau das bemängelst hast! Haben alle anderen das auch so gesehen?
Quellen+ Diagramm bitte:D<---Nein Bitte,bitte nicht^^
 
Ob sich Intel mit Kuduri einen Gefallen getan hat wird sich noch raus stellen, ich meine Vega war was den gaming Anteil anging, sehr umstritten.

Pardon?! Aber Vega war doch superdupertoll? Hast Du jedenfalls gesagt. Und sogar einen magischen Treiber in Aussicht gestellt, der lt. einem "Insider" gar RT freischalten sollte, weil Vega vor lauter Rohleistung nicht wusste wohin damit.

Grundguetiger bist Du ein anstrengender Mensch. Trollst durch wirklich jedes Forum, dass halbwegs Reichweite hat, und kippst maessig subtil Deine rote Gruetze aus.
 
Ich fands schon immer lustig, wie irgendwelche Leute zu der Meinung kommen, jemand wäre unfähig. Bei Raja war mir das besonders aufgefallen, damals auch schon bei Polaris und den folgenden Produkten. Hauptsache man basht immer denjenigen, der das Produkt präsentiert.
Für manche Menschen ist es halt leichter, eine einzelne Person auf ein Potest zu stellen, oder sie zu diffamieren, als zu verstehen, dass dahinter eine größere Menschenmenge und ein komplexer Prozess (samt Resourcen, Entscheidungen) steckt.
Das hat halt auch etwas mit einem gewissen Horizont zu tun, oder auch, weil wir gerne an das Märchen von einzelnen Helden oder Bösewichten glauben wollen.
So hatet man halt gerne gegen Koduri oder andere Reizfiguren, anderen wird dafür (teils völlig unberechtigt) ein gewisses Heldentum nachgesagt (Jobs, Su, Keller... gerade letzterem wird etwa die Geburt von Zen zugeschrieben, obwohl er selbst und der Lead-Architekt da ganz was anderes sagt..)
Seinen Lebenslauf findet man ja einfach auf Linked in, demnach war er von 2013 bis 2017 bei AMD.
Ich kenn mich nicht darin aus, wie lange es dauert, eine neue Architektur zu entwickeln. 4 Jahre müssen es ja mindestens sein, schließlich ist er jetzt so lange bei Intel. Der Zeitraum spricht daher eher dafür, dass er vor allem zu RDNA viel beigetragen hat.
Eine wesentlich weniger komplexe Architektur wie etwa der RV770 hat ca 5 Jahre gebraucht vom Reißbrett bis um fertigen Produkt.
Vega war vor seiner Ankunft in Entwicklung, auch wenn er wichtige Entscheidungen wohl mitgetroffen hat, die Grundarchitektur stand schon als er an Board kam. Und die geringe Finanzierung leider auch. Nicht so bei Navi.
GCN kam schließlich schon 2011 auf den Markt, da war er übrigens noch bei Apple. Bis 2013. Bekanntlichermaßen steht Apple jetzt auch alles andere als schlecht da im GPU-Bereich.
Wobei, auch auf GCN 1.0 - eine gelungene Arch damals - wird er noch großen Einfluss gehabt haben, schließlich war er bis 2009 bei AMD, bevor er zu Apple wechselte.

Und selbst wenn irgendjemand ein nicht so erfolgreiches Produkt entwickelt, muss man denjenigen dann als unfähig betiteln - bzw ist dann immer alles schlecht, womit diese Person zu tun hat? Sozusagen Perfektion als Mindestmaß? Komische Auffassung
Absolut. Aber manche sind leider gar nicht hier um objektiv zu diskutieren - leider
Ich weiß gar nicht warum es nötig war darauf zu antworten. Trotzdem danke dafür Av4l.
Es ist doch mittlerweile offensichtlich und dürfte auch der letzte mitbekommen haben das die Person(gleich erster Kommentar) hier dieses Forum nur zum Trollen, provozieren und dumm rumm labern nutzt. Im luxx traut er sich sowas nicht....
Es ist durchaus auch der Job der restlichen Community zusammenzuhelfen und dieses Forum "sauber" zu halten vor Störenfrieden. Also melden, wenn jemand nur Unsinn vorhat hilft, die Moderatoren sind sehr fleißig. Es sollte halt ein klarer Regelverstoß vorliegen. Entweder etwa seine Beleidigungen, oder wiederholtes Verbreiten von falschen Fakten. So wie er seine Meinungen darstellt, nämlich faktuell, ist ihm das ja schon öfter auf den Kopf gefallen.
Jim Keller hat ja AMD btw auch schon wieder verlassen, bevor Ryzen 1000 released wurde. Nämlich schon 2015, was ziemlich ähnlich aussieht im Vergleich zu Koduri, der 2017 zu Intel wechselte - auch zwei Jahre vor Markteinführung der Arch.
Das ist für mich das interessante: Keller hat eben nachweislich NICHT viel mit Zens Erfolg zu tun gehabt, und dennoch behaupten das viele weiter.
Koduri hatte durchaus seine Erfolge, aber alle hängen sich am unterfinanzierten Vega auf, der schon längst davor in eine falsche Richtung steuerte. RDNA ist aber laut vielen der erste große Wurf. Warum wird nicht von den Leuten berücksichtigt, dass eine solche neue Architektur lange in Planung/Entwicklung war (wohl 5-6 Jahre vor der Einführung) und wer war da bei AMD für die GPU Entwicklung zuständig?
Als Koduri 2017 von AMD ging war Navi zwar noch nicht fertig entwickelt, aber durchaus schon sehr weit fortgeschritten. Sollten manche mal bedenken.
Pardon?! Aber Vega war doch superdupertoll? Hast Du jedenfalls gesagt. Und sogar einen magischen Treiber in Aussicht gestellt, der lt. einem "Insider" gar RT freischalten sollte, weil Vega vor lauter Rohleistung nicht wusste wohin damit.

Grundguetiger bist Du ein anstrengender Mensch. Trollst durch wirklich jedes Forum, dass halbwegs Reichweite hat, und kippst maessig subtil Deine rote Gruetze aus.
Das hab ich schon wieder ganz verdrängt gehabt, dass er seine Fantasiefreunde zum AMD Treiber befragt hat.
Ich fand das allgemein witzig, wie lange er sich bei Vega an einer alternativen Realität festklammerte.
Viele Monate vor Release hieß es damit wird AMD Nvidia plätten.
Dann kamen kurz davor erste Benchmarks auf, sowie die Preise (die klar die Performancerichtung zeigten). Dann kam bei manchen schon Ernüchterung, er war felsenfest von seinem "Low Level Optimierung", seiner Wunderarchitektur die mit Treiber noch 30% mehr rausholen wird etc etc.
Wie es ausging wissen wir dann eh alle. Aber er wollte es immer noch nicht wahrhaben, sprach von versteckten Features im Treiber usw usf. Die sollen die zusätzlichen Transistoren, Chipfläeche, Verbrauch usw erklären.
Ja... es wäre erheiternd, wenn es nicht so traurig wäre.
 
Zuletzt bearbeitet:
Zurück