News Intel Arc: Grafikkartentreiber sind hart, aber man gibt nicht auf

Grundsätzlich trifft das schon ziemlich den Nagel auf den Kopf.
Ich konnte einige Probleme bei Games dadurch beheben, dass ich bei manchen Spielen in den Dateien für Einstellungen bezüglich der Engine ein paar Anpassungen gemacht habe. Gutes Beispiel dafür ist Conan Exiles als recht schlecht optimiertes Spiel das zusätzlich durch Verwendung von etlichen Mods super instabil geworden ist.
Da konnte ich das sehr gut nachvollziehen das sich wirklich jedes Spiel komplett anders verhält.
Ich bin bisher sehr zufrieden mit meiner Arc Karte, das rumtesten und hier und da in den Code eintauchen bei manchen Spielen macht mir eine Menge Spaß, ich kann aber verstehen wo das manche abschreckt.
Ich hatte aber über die gesamte Nutzung im Vergleich tatsächlich weniger Probleme als vorher mit AMD.
Wenn das weiter so gut und regelmäßig mit den Treiberupdates läuft bei Intel seh ich Battlemage und Folgende in einer ziemlich guten Position für Einstieg und Mittelklasse.
Ja an High End kommt man da noch nicht ran aber das ist auch nicht schlimm. Ich denke mal der größte Marktanteil wird so rund um die 4070 Performance sein und wenn genau da angegriffen wird machen die erstmal alles richtig.
 
Wirkt wie eine andere Sprache.

Ich würde für so etwas eine AI verwenden als Forenbetreiber. Moderatoren braucht es auch nicht mehr. Kann alles die AI machen binnen Sekunden.

Ich würde sogar sagen Tests könnte auch die AI machen irgendwann.

Schöne neue Welt, manche wird es hart treffen.
Artikeltexte: AI
Moderatoren: AI, weil effizienter
Tests: AI, ist ja eh nur Marketing
Kommentatoren: auch AI, da sparen alle Zeit
Produkte: auch alles nur AI, hat eh keiner Geld mehr die zu kaufen, weil die AI alle Jobs macht
 
Wenn Intel schon nach der ersten Gen kaum noch Chancen sieht und schon über das Einstellen der Grafikkartenprodukte nachdenken würde, hätten Sie den Markt von Anfang an nicht verstanden. Nach der dritten schlecht verkauften Gen könnte ich es ja nachvollziehen wenn ein Hersteller die Reißleine zieht. So langsam laufen ja auch die Treiber ordentlich, jetzt muss nur noch die Hardware schneller werden. Denn immer nur im Einsteigermarkt mitzuspielen bringt nicht viel Aufmarksamkeit.
 
Zuletzt bearbeitet:
Ich hoffe ja, dass Intel auch im professionellen Bereich aufholt. Wer mit Adobe oder im 3D-Bereich arbeitet kommt um Nvidia leider noch nicht herum. Ich würde sofort umsteigen, wenn es eine gute Alternative gäbe.
 
Da ich einen zweit PC brauche, habe ich wieder zu der Arc 750 gegriffen, gebraucht. Hatte schon mal eine neue und habe sie verkauft. Die 750 werkelt mit einen Ryzen5 7600x und wenn man diese FSR3 Mod benutzt, dann haut ein Spiel wie Alan Wake 2 in FullHD so richtig rein. Ich erwarte nichts von der Karte. Aber wenn, dann kann sie es mit einigen Tricks. Ich muss aber sagen das der Intel Treiber aber zu Bloat und Malware wird oder wie man das beschreiben mag. Das ist nicht mehr schön was alles im Hintergrund läuft. Von Datensammeln bis hin, das immer der Flash Dienst (neuste Firmware) für die Karte läuft. Ab propo Datensammeln. Realtek und AMD sind auch ganz große Sammler. Mittlerweile echt kein Witz mehr, das alle Firmen Datensammeln und im Hintergrund das Windows zu Müllen mit aktiven Diensten.
 
Zuletzt bearbeitet:
Ich wundere mich immer wieder, wieso alle über Microsoft schimpfen, aber wirklich niemand scheint es Intel anzukreiden, dass man sehr hohe Hardwareanforderungen an die Grafikkarten setze, ohen die die Karten wie der letzte Mist laufen, also eher gar nicht.
Quasi jeder, der einen alten Rechner aufrüsten möchte, bekommt mitunter solche Probleme wie mit Windows 11.
Darüber wird anscheinend immer noch viel zu wenig aufgeklärt und diskutiert.
Wenn man rBar nicht aktivieren kann, ist das ein Killerargument, wie Secure Boot und TPM 2.0 unter Windows.
Hinzu kommt die enorme Leistungsaufnahme im Idle(!) von ca. 40 Watt und die eh schon schlechte Energieeffizienz in Spielen. Z.B. 200 Watt statt 130 Watt bei einem letzten Vergleichstest der Einsteigerkarten.
Und wenn Spiele wie Starfield, Halo und GTA5 straucheln, und es gibt ja noch weitere neue Titel, die nicht rund laufen, dann ist und bleibt zumindest die ARC Serie imemr noch ein absolutes Enthusiasten Teil für Leute, die ihre wahre Freude am Basteln/Tüfteln haben und gerne so etwas ausprobieren wollen - aber kein Gerät für normale Anwender, die mal eben schnell ein kostengünstiges Upgrade für ihren alten Rechner suchen.
Darüber gab es kürzlich wieder einen neuen Bericht, war bei Heise oder Golem.
Wer einfach nur auf besserer Benchmarks achtet, der wird unter Umständen sein blaues Wunder erleben.
Gemeint ist natürlich die negative Ausrichtung dieser Wortspielerei.
Also immer mit Vorsicht an die Sache herangehen, seit euch der vielen Probleme bewusst, bitte nicht blind zuschlagen.
Augen auf beim Hardwarekauf. :-)
 
Zuletzt bearbeitet:
Ich verstehe dich nicht, selbst auf einem Brett mit Intel 8000 CPU haben wir Resizable BAR aktivieren können.
Hier geht es nur ums aktivieren, oder höchstens um das installieren einer neuen BIOS-Version, bei Windows 11 muss man neue Hardware kaufen, für mich ist das ein riesiger unterschied.
Außerdem erwähnt man das mit Resizable BAR überall, bei Tests, Artikel, Intel selbst, sogar bei jeder neuen Treiberversion wird einem das eingeblendet.
Wer das RAM-Profil in seinem BIOS aktivieren kann, wird auch Resizable BAR im BIOS aktivieren können.
Nachtrag zu deinem Nachtrag: Bezüglich Verbrauch im Leerlauf, das gibt es was um dies zu beheben, kommt von Intel selbst. PCGH hat schon sehr sehr viele Spiele mit Arc getestet, tut mir leid, aber diejenigen die motzen kennen diese Tests entweder nicht oder habe die Karte noch nie in der Hand gehabt. Ihr wollt sie nur schlecht machen, schon ein wenig schäbig.
 
Zuletzt bearbeitet:
Ich habe vom Programmieren im Allgemeinen und von Spielen und Grafikkartentreibern absolut keine Ahnung. Aber ich erinnere mich an ein Seminar eines braunschweiger Elektronikprofessors, der bei uns in der Forschung über Testmöglichkeiten zu komplexer Fahrzeugsoft- und hardware mit zum Teil weit über 100 Steuergeräten referierte. Seine Aussage an uns Inschinöre war nur, "Informatik ist keine Ingenieurswissenschaft". Es gibt viel zu wenig Normen und einheitliche Testmethode, jeder kocht sein eigenes Süppchen und programmiert drauf los. Und das Fatale ist, das betimmte Programme über Jahrzehnte mitgeschleppt werden.

Ich sehe eine gefährliche Symbiose von Nvidia mit den Spielerherstellern. Die individuelle und gute Betreuung von Nvidia für die Spielehersteller ist ein Danaergeschenk. Man macht sich von Nvidia und seinem Treiber auf Gedeih und Verderb abhängig. Und wenn in Zukunft Nvidia seine Grafikkartenpreise erhöht und erhöht, dann werden die Spielerzahlen für aufwendige AAAA Titel mangels Nachwuchs mit potenter Hardware sinken. So meine Befürchtung.

Neue Hersteller von Grafikkarten sind nicht in Sicht, wenn selbst Intel solche Probleme hat. Und die bauen sein vielen Jahrzehnten Grafikkarten, bzw. integrierte Grafikeinheitenn.

Es müssen saubere Standards geschaffen werden und keine individuellen Lösungen. Aber das betrifft die gesamte IT. Und wenn ich jetzt sehe, was mit und durch die KI passiert, die selbstständig programmiert und Algorithmen schafft, die wir gar nicht mehr verstehen, wird das alles noch viel unsicher.

Das wird jetzt eine ganz spannende Zeit. Vielleicht wird es mit der KI auch ganz simple, weil die Grafikkartentreiber viel besser optimieren wird,
"Man hat es nicht mit DirectX, sondern mit Hacks für Nvidia-GPUs zu tun" hört man nicht nur von Intel, insofern ist etwas dran. Code muss vor allem auf dem Marktführer laufen und das ist zweifellos gefährlich.

MfG
Raff
 
Eine fiktive B770 mit 16GB VRAM, verbesserter Leistungsaufnahme, höhere Speicherbandbreite, verbesserter ML Framework Support (Pytorch, Tensorflow, OneAPI, JAX), neuer XE Kernel Treiber und besseres Raytracing... alles auf Leistungsniveauf einer 4070... also mir würde das gefallen.

Auch wenn keine großer Chip kommt so hoffe ich doch auf signifikante Verbesserungen. Es wird sowieso eine spannende Generation.

Und ja die Konkurrenz schläft nicht (vielleicht momentan doch ein bisschen) aber ich finde es war von Anfang an wenig realistisch das Intel innerhalb von zwei Generationen aufholen kann.
 
Hinzu kommt die enorme Leistungsaufnahme im Idle(!) von ca. 40 Watt und die eh schon schlechte Energieeffizienz in Spielen. Z.B. 200 Watt statt 130 Watt bei einem letzten Vergleichstest der Einsteigerkarten.
Keine Ahnung was Du für Einstellungen hast, aber ich komme mit meiner A750 und dem aktuellen Treiber selbst im Dual-Monitor-Betrieb bei FullHD und 60Hz im Idle auf eine GPU-Last von dauerhaft 13-14 Watt. Schalte ich ein YouTube Video dazu, steigt das Ganze auf durchschnittlich 24 Watt. Kann da keine enorme Leistungsaufnahme erkennen und viel besser bekommen es die anderen beiden auch nicht hin.
 
Zurück