Intel Arc Limited Edition: Intel zeigt High-End-Desktop-Grafikkarte

Es gibt konkrete Ideen zu dem Thema. Ein tätowierter Name könnte auf lateinisch folgendermaßen lauten: "industria vastatorem". Manche haben auch den Vorschlag "lusus naturae Co2" ins Spiel gebracht. Spannende Gedanken.

Natürlich distanziere ich mich von jeglicher Praxis im dritten Reich, Ich will mit Nazis nichts zu tun haben und verabscheue auch deren Praxis und Rassenlehre. Bitte mir so etwas nicht unterstellen.

Gut so. Gegenvorschlag, tätowiere Dich doch erst einmal selbst, z.B. mit "Ich bin ein besserer Mensch (ego sum magis homo)". Die Entourage, die Steuern auf VGA-Karten ab 300W und absurde Vorschläge wie Tätowierungen für hohen Energieverbrauch befürworten, können das ja auch im Plural stechen lassen. :-)
 
So jemand kennt keinen spass.
War auch fies von mir. Jetzt muss ich den Scherbenhaufen, den ich verursacht habe, wieder aufkehren. Mensch, so mancher könnte bei dem absurden Vorschlag doch auf die Idee kommen, dass dieser nicht ernst gemeint war.

Gibt es denn hier im Forum viele Leute, die jede Geschichte gleich als Wahrheit auffassen?
Gut so. Gegenvorschlag, tätowiere Dich doch erst einmal selbst, z.B. mit "Ich bin ein besserer Mensch (ego sum magis homo)". Die Entourage, die Steuern auf VGA-Karten ab 300W und absurde Vorschläge wie Tätowierungen für hohen Energieverbrauch befürworten, können das ja auch im Plural stechen lassen.
WAR SPASS! Bitte den Abschnitt darunter lesen. Spass. Verstehst du?
@Danke Sinchilla für das Like!:-)
 
Zuletzt bearbeitet:
Ich bin auch für mehr Umverteilung - von oben nach unten .....(aber nicht geschenkt !!!)

Wer sich so ne Karte leisten will wirds verschmerzen...ausserden nimmt soetwas auch von der Marge im Handel und gibt es der Allgemeinheit - hoffenlich
Die Abgabenquote kann ja je nach Verlustleistung variieren....das kann mann so auf alle "Energieverbraucher" Anwenden , wenn dann noch regelmässig die Definitionen angepasst werden.............

Das Japanische Modell kann leicht Ausgehebelt werden . Wenn das Beste schlecht ist gibts nur schlechte Vorbilder....
Auserdem denk ich , in der Westlichen Welt funktioniert ein finanzielles Anreizsystem eher......

mFG
 
Wie kann man den optisch einen Hdmi 2.0b und einen 2.1 unterscheiden?
-edit-
Okay, gerade gelesen die haben nur Hdmi 2.0b, für mich war das schon klar das ich eine Arc kaufe aber ich nutze den Rechner am Tv mit Hdmi 2.1, hat aber kein Dp.
Da fällt mir nichts mehr zu ein- 2022 und hdmi 2.0b.
Das war mir auch als erstes aufgefallen. Absolut unverständlich.
Selbst Intel IGPs können mittlerweile HDMI 2.1.
 
Huch, in Threads zu Grafikkarten wird gelacht ? Ich bin schockiert, muss neu sein :ugly:
Ich bin auch geschockt.
Dachte hier sind alle nur schlecht gelaunt. Falsches Forum für mich. Ich lasse mich nicht zu guter Laune zwingen. ;-)

Da die 150W vom A770M (Mobile) kommen glaube ich nicht, dass dies auch für den ACM-G10 gilt.
Da wird ein wenig mehr von der Leistungs-Leine gelassen.
Wenn sie da nicht über dem Sweet Spot ist, kann das schon eine tolle Karte werden.
Am Schluss entscheidet Preis/Leistung, ob die Masse kauft.
Da gibt es viele die in 1080p, 1440p zocken oder eine GPU anno 2017 oder älter haben.
Das [A]Team :D
 
Ich für meinen Teil habe ein gutes Gefühl was Intels Dedizierten GPUs angeht.
Das Drama mit HDMI bestückung ist doch selbst in Neusten selbst zig tausend € Heimelektronikgeräten schwierig.
Ich habe mir extra (nur)den Denon 4700H AVC gekauft weil Sound United(!) die einzigen waren die 48GiB 8K60Hz Datentransfer anboten auch wenn es nicht meine erste Wahl war. Und da war ja das Problem mit Texas Instruments ihren Chips. Ja gut ich habe das Gerät zur korrektur Gratis bekommen und wenn denn mal ne konsole dran kommt läufts halt.
Dazu bekommt man nur selten gute und lange Kabel (z.B.10m 48GiB Aktiv, Lichtleiter) die auch wirklich Störungsfrei arbeiten einigermaßen erschwinglich. Bei Audioquest bekomme ich 48GiB(4x12GiB) aktiv sogar nur bis 5m für 200-300€

Das Thema HDMI brauch noch ne weile^^. Und der Standart User bruacht eh nicht mehr als 18GiB, wenn überhaupt.

HDMI ist son richtiges drama...
Um eine 3090 Leistung gehts nicht.

Es ist schon mit einer 3070 viel zu viel Verbrauch und die zählt eher als obere Mittelklasse.

Und mit eine 4070 wird der Vogel abgeschossen da unter 300W nichts mehr zu bekommen ist.

Ich zocke mehr als 8 Std da will ich keinen Stromfresser.

Nich schlecht. 8 Stunden schaffe ich eventuell in 2 Wochen:ugly: manchmal ehr 4 Wochen.
Nur wenn ich ein Neues Spiel kaufe hau ich das grad in wenigen Tagen durch. Allerdings habe ich in den Letzen 12 Monaten auch nur 2 Spiele gekauft. Früher, (bin 33) hab ich allerdings bestimmt 1 bis 2 Stündchen am Tag geschafft.
Interessant wie viel manche spielen. Und da gibs sicher noch einige die viel mehr Zocken.
Bei einer Spiele Leistung wie deiner ist es wohl schon wichtig zu wissen was son ding braucht.

Deswegen kann es mir Theoretisch auch völlig schnuppe sein ob son Ding 100W oder 1000W zieht( ist es aber tatsächlich nicht). Auch wenn die Entwicklung mich schon nervt. (Elektronischen) Fortschritt setze ich irgendwie mit steigender Leistung bei gleichem Ressourcenaufwand gleich. Nicht steigende Leistung bei steigendem Verbrauch -- Das ist nur Konsumbefriedigung.
 
Zuletzt bearbeitet:
Allein die Diskussion hier im Forum zeigt eindrucksvoll die Zeitenwende. Wo vor ein paar Jahren ausschließlich Kerne, Speicher, Lüfter und co diskutiert worden wären, geht es jetzt ausschließlich um die Leistungsaufnahme. Wow, Respekt Leute!

Bei Autos war der Verbrauch meist egal, weil nur wenige Liter unterschied, Sprit zu billig und durch Fahrweise massiv beeinflussbar. Die Unterhaltskosten waren aber trotzdem nicht egal. Gerade bei exotischeren Autos schauen die Leute z.B. auf Versicherungseinstufung und z.B. den Ersatzteilmarkt. Das ist z.B. der Grund warum sich nur wenige einen gebrauchten Supersportwagen zulegen. Anschaffung: in mittelmäßigem Zustand oft billig zu haben. Verbrauch, sche*ß drauf. Aber 3000€ Versicherung im Jahr und ein Satz neue Bremsen 4000€? ... naaaahhh... ich schau lieber mal nach 'nem gebrauchten Golf R.

Und so wird der Verbrauch bzw. die Effizienz von ZockerPC's die Leute auch zum umdenken bewegen. Find ich jetzt nicht so schlecht.
 
Irgendwie irritiert mich die Überschrift mit "Highend", ... die Ansprüche sind ganz schön gesunken in letzter Zeit.(x)

Damit im Vollausbau überhaupt was Konkurrenzfähiges dabei rauskommt, würde ich mir 250W Target und
300W Boost für 40sec ala CPU´s wünschen, ... würde zu modernem Gamen@Fps-Limit passen.
(solange Es die 2 Lüfterchen schaffen!?)

(x) vermutlich bin Ich mit der nonXT jetzt schon Enthusiast, wow!
 
Zuletzt bearbeitet:
Schlimmer als die AMD Treiber kanns ja nicht werden, ich hab mit AMD seit sie vom Catalyst Control Center weg zu dem modernen Crimson und zu Adrenalin irgendwas sind nur noch Probleme gehabt.

Kleine Anmerkung aus meinem HTPC (A10 7870K IGP):
CCC 15.7.1 vs. Adrenalin

BF4
CCC 60 FPS
Adrenalin 21 49 FPS inkl. Driver Reset nach 30 min zocken
Adrenalin 19 54 FPS und derbe Grafik Glitches
 
Schlimmer als die AMD Treiber kanns ja nicht werden, ich hab mit AMD seit sie vom Catalyst Control Center weg zu dem modernen Crimson und zu Adrenalin irgendwas sind nur noch Probleme gehabt.

Kleine Anmerkung aus meinem HTPC (A10 7870K IGP):
CCC 15.7.1 vs. Adrenalin

BF4
CCC 60 FPS
Adrenalin 21 49 FPS inkl. Driver Reset nach 30 min zocken
Adrenalin 19 54 FPS und derbe Grafik Glitches
ich hatte irgendwie nie großartig probleme mit amd karten, bei meiner alten hd4870 damals hatte ich nur probs bei youtube mit hardwarebeschleunigung. sonst wurden die karten nur zu warm und der treiber resette sich bzw. gabs nen freeze. die r9 290 mit ac acclere xtreme 3 war ein graus. musste regelmäßig die lüfter säubern und gucken das die auf maximaler rpm lief.
 
Dito :ka:
Kein Plan warum so viele Leute auf deren Treiber schimpfen.

Aber wer zockt denn auch schon BF4 auf nem A10 und dessen iGPU, das kann ja nur schief gehen :fresse:
ich hatte damals zu xp zeiten mehr bluescreens mit nvidia karten, seis nun treiber abfuck oder die karte segnete langsam das zeitliche. damals hatte ich noch wenig ahnung von pc's & co. hab damals mir bf1942 gekauft und es lief auf meiner gf2 nicht, bis ich mal ein directx update gemacht habe, hatte auch noch kein internet :D und intel ist treibertechnisch doch eigentlich super?

leistungstechnisch steht er mit 50 fps doch gut da?
 
Kein Plan warum so viele Leute auf deren Treiber schimpfen.
Weil sie zum Release von RDNA1 wirklich nicht prall waren. Nicht ohne Grund hat AMD damals einen "Report Button" integriert, weil sie die Blackscreens selber nicht 100%ig reproduzieren konnten.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Und Mal so nebenbei, eine 8800GTX hat im gesamten Rechner auch über 200Watt gefressen, im IDLE wohlgemerkt!
Ja, den Test/die Messwerte von CB aus dem Jahre von 2006 kenne ich. Hab damals selbst eine 8800GTX besessen.

Warum du allerdings jetzt auf alte Kamellen anspielst, entzieht sich gerade meinem Verständnis. Es geht um AKTUELLE/STROMSAUFENDE Technik und nicht darum was Bildschubsen zu Omma's Zeiten im idle verbraten haben:schief:

Sollte Intel's Arc sparsam(er) unter Last sein, wer könnte was dagegen haben? Ich versuche bei ähnlicher Leistung immer zum effizienteren Produkt zu greifen (nicht nur bei Graka's), wenn verfügbar.

Diese "scheiß egal, Hauptsache Power"-Mentalität richtet uns nochmal alle zugrunde...

Gruß
 
Dito :ka:
Kein Plan warum so viele Leute auf deren Treiber schimpfen.

Aber wer zockt denn auch schon BF4 auf nem A10 und dessen iGPU, das kann ja nur schief gehen :fresse:
Weil die Treiber seit "Menschengedenken" und bis vor Kurzem einfach ein riesiger Schwachpunkt und immer ein Thema gewesen sind. Mit meiner HD4850 damals gab es dann schon auch oft genug nicht angezeigte Texturen (stattdessen gab es ein schickes Schachbrett zu sehen) oder es wurde direkt angezeigt, dass die GPU nicht kompatibel wäre oder Spiele sind gar nicht erst gestartet - immer wieder musste nachgebessert werden. Dann kam ja irgendwann Adrenaline und alle hatten riesige Hoffnungen, dass es jetzt endlich mal gut ist mit den Softwareproblemen. Meine R9 290 hat sich regelmäßig mitten im Spiel runtergetaktet, weil der Treiber die Energiesparoptionen angeschaltet hat. Dazu gab es für jeden nachlesbar etliche Hotfixes zu Treibern, die wiederum mit einem Hotfix gehotfixt werden mussten. Oft genug hat man nicht wegen schlechter Hardware, sondern des Treibers wegen deutlich schlechtere Performance in Kauf nehmen müssen als auf den NV-Pendants.

Bevor ich damals meine R9 abgestoßen habe und endgültig zu den Grünen gewechselt bin war AMD noch eher der Underdog und dennoch waren im CB Forum unter "Probleme mit AMD GPU" mehr Einträge als unter der Probleme mit NVidia" Rubrik. Ist zwar sicher kein adäquates Mittel für eine statistische Bewertung- aber immerhin eine Tatsache. Bei AMD ist die Hardware schon gut aber an der Software hats bis vor Kurzem sehr übel gehapert. Zum Glück braucht eine CPU keine dedizierte Treibersoftware :)

Wenn man einem Hersteller immer wieder die Chance gibt, aber jedes mal aufs Neue enttäuscht wird, dann zieht man halt seine Konsequenzen daraus. Und wer will es verdenken? Wäre dämlicher es nicht zu tun.
Daher kommt mir auch kein Zeugs von Asrock, Gigabyte oder TP Link mehr in den Warenkorb.
 
Ja, den Test/die Messwerte von CB aus dem Jahre von 2006 kenne ich. Hab damals selbst eine 8800GTX besessen.

Warum du allerdings jetzt auf alte Kamellen anspielst, entzieht sich gerade meinem Verständnis. Es geht um AKTUELLE/STROMSAUFENDE Technik und nicht darum was Bildschubsen zu Omma's Zeiten im idle verbraten haben:schief:
Weil man es in Relation sehen muss. Eine 3090Ti verbraucht eben die 500W nicht durchgehend, sondern nur in der Spitze. Je nach Anwendungsfall kann eine 8800GTX MEHR Energie umsetzen als eine moderne Graka.
Bei Autos schaut schließlich primär NICHT auf den maximalen Verbrauch geschaut.
 
Ich bin gespannt auf die Intel Grafikkarten. Auch wenn ich mir noch keine holen würde.
Erstmal 2-3 Generationen abwarten und beobachten. Vor allem wegen der Treiber.

Aber schön das es dann einen weiteren Player auf dem GPU Markt gibt. :daumen:
 
Zurück