Das ist völliger Unsinn, denn das Fusion Konzept war weit vor den Intel Chips bekannt...Die versuchen gerade den i3/i5/G- von Intel nachzumachen. Da ist ein Grafikchip neben der CPU verbaut.
Verstehe eh nicht was man mit dem Müll im Rechner will. Späterstens beim nächsten Spielchen merkt man doch eh woran man gespart hat. Jaja, jetzt kommen alle -> Reicht für Office PCs. Dafür reichen auch die RivaTNTs und GeForce Mx Chips, die Tonnenweise im Schrott landen.
Natürlich ist das besserEherbesser.
Du hast ja genausowenig auf Lager. Den Dieshrink und die Fläche sollten die Lieber in die Prozessoren investieren. Hinken nach wie vor hinterherSchon klar, das du nicht verstehst, weil du dir darüber keine Gedanken gemacht hast bzw überlegt, was denn nun der Sinn davon ist, du lehnst es einfach aus Prinzip ab, weil ist halt so, Argumente brauchts ja nicht, die sind dir auch völlig egal, von daher...
In deinen Träumen villeicht. Erstens sind noch keine Messerte raus, zweitens verbraucht solch ein Chip bei weitem mehr Strom als die Oldtimer Karten die überall irgendwo als Schadstoffabfall vor sich hin gammeln.Anyway: ein Chip mit CPU und dem größten Teil des Chipsatzes spart einerseits Energieaufnahme, andererseits Platz auf dem Board.
Stimmt, die Abwärme der Turions kriegen die seid Jahren nicht in den Grif. Wenigstens ist der R600 kleingewachsen mit der Zeit...Und auch kosten, ist also was für Notebooks und kleine Rechner, wo man nicht 'mal eben' 20 Chips verbauen kann...
Man wird sehen. Du machst aus der Theorie schon eine Ist Sache....Einerseits aus Gründen der Kühlung (keine unterschiedlich dicken Dice), auch ist der Träger einfacher, man kann das ganze auch besser integrieren, so dass die Performance besser ist...
"Das coole Ding Larrabee"....is klar.Das Fuzion Konzept lag schon 2007 vor, umsetzen tun die es aber dennoch nach Intel. Zudem haben die das coole Ding Larabee "nebenbei" erschaffen. Ehre wem ehre gebürt
Im Gegensatz zum Core i7 980X wenigstens bezahlbar. Also behalte deine vorlaute Fanboyzunge hinter deinen Zähnen.Jaja, Phenom X6. So der reisser Chip is dat auch nich.
Gut, dann verbau mal so 'ne Oldtimer-Karte mit AGP-Anschluss in einem aktuellen Rechensystem und versuch' die Treiber zum Laufen zu kriegen, könnte bei Windows Vista/7 schwierig werden.In deinen Träumen villeicht. Erstens sind noch keine Messerte raus, zweitens verbraucht solch ein Chip bei weitem mehr Strom als die Oldtimer Karten die überall irgendwo als Schadstoffabfall vor sich hin gammeln.
Dann mach mal deine Augen auf, dass sind sie nämlich.Das hat nix mit Fanboy zu tun. In sachen Prozessor ist Intel seid dem Core2 unangefochten der beste am Markt. AMD versucht nur über Sprit mitzuhalten. Ob das auf dauer die günstigeren Prozessoren sind, bei den Emissionen? Glaube kaum...
Der Larrabee war ursprünglich als direkter Konkurrent zu den Radeons und GeForces geplant. Jetzt wird er (oder zumindest die Erfahrung, die Intel daraus gewinnen konnte) für Entwicklungszwecke eingesetzt. Wovon profitiert der User jetzt also mehr? Von AMD Fusion oder Larrabee?Zudem wird Larabee so wie es aussieht in Zukunft für Entwicklungen genutzt. Was heisst hier: "Jaja"?
Ich denke in der Forschung und Entwicklung wird Larabee mehr brauchbare Ergebnisse liefern, als ein Fuzion das in Wohnzimmer rumdümpelt.Wovon profitiert der User jetzt also mehr? Von AMD Fusion oder Larrabee?
Also jetzt hör doch mal auf. Ein Phenom II X4 955 z.B. verbraucht bei etwas mehr Takt weniger Strom als ein Core i7 940. Als ob es auf die paar Watt ankommen würde - bitte, das ist Haarspalterei. Komisch, wenn Nvidia mehr verbraucht als ATI, bist du plötzlich nicht so kleinlich. Und von einem Preisverhätlnis zwischen AMD und Intel von 1:1 war nie die Rede, du versuchst damit offenbar nur, ein Argument gegen AMD zu findenDu kommst dauernd mit dem Argument Preis. Wären AMD Prozessoren preislich identisch mit vergleichbaren Intels, welchen würde der Kunde dann wohl wählen? Ausserdem ist das ein geschlossener Kreislauf, da ein AMD Phenom X4 955 (wie du erwähntest) in seiner einsatzzeit einiges an Geld kostet. Im Grunde eine Ratenzahlung auf Kosten der Umwelt. Klasse.
AMD hat nach dem überraschenden Erfolg des Intel Core 2 und dem Kauf von ATI erst mal finanziell einstecken müssen - nachdem der Phenom I kaum was gebracht hat, standen die natürlich abgeschlagen da. Und da fehlt einem auch logischerweise das Geld, wenn Intel in dieser Position wäre, würde es denen nicht anders ergehen. AMDs zentraler Fehler der letzten Jahre war einfach, dass sie sich mit dem Athlon auf ihren Lorbeeren ausgeruht haben - den Preis dafür zahlen sie halt jetzt immernoch. Der Vorteil für die Käuferschaft: AMD-Kunden können von einem Preis/Liestungsverhältnis profitieren, von dem Intel-Kunden nur träumen können.Ausserdem meinte ich die Technologische Entwicklung, denn Intel ist schon bei 32 nm. "Besser" in dem Kontext zu dem Begriff "Erfahrener/Fähiger" ist ergo Intel. Eben weil sie immer schneller als AMD reargieren. Nicht nur die Clarkdales, sondern auch schaue man sich den Atom an. Ein Markt den AMD gar nicht bedienen kann, da so Hitzebeständiges Plastik recht teuer ist...
Klar, und selbst wenn da irgendwann Ergebnisse erzielt werden (übrigens darfst du nicht vergessen, dass Nvidia in ähnlichen Gefilden arbeitet) was bringt das dann dem User? Der hätte von seinem Fusion-System mehr, als wenn der Larrabee bei US-Forschungsinstituten für Atombombensimulationen eingesetzt wird.Ich denke in der Forschung und Entwicklung wird Larabee mehr brauchbare Ergebnisse liefern, als ein Fuzion das in Wohnzimmer rumdümpelt.
Meine Ansichten entsprechen den Tatsachen, was soll daran komisch sein? Oder sind dir nur die Argumente ausgegangen? Der Unterschied ist lediglich, dass ich meinen Intel-Sympathismus für mich behalte.Du bist Lustig, hast auch Interessante Ansichten.
Wie kommst du jetzt auf Fermi? Der stand doch gar nicht zur Debatte.Naja, ich hab keine Fermi und plane das erstmal nicht. Bis zum nächsten DIE Shrink, dann ziehen die Dinger hoffentlich weniger. Die BQ über die jüngst angepasste Software war doch ein echt geiler Zug
Im Grafikbereich konnten die sehr wohl in letzter Zeit positive Zahlen vermerken - dass es im CPU-Bereich weniger gut läuft, liegt wohl zum Teil auch an Intels unfairen Geschäftspraktiken - auch wenn die Sache offiziell vom Tisch sein sollte, viele Computerhersteller erhalten immernoch Boni von Intel, wenn diese dessen Produkte in ihren Rechnern verbauen.Wir sich zeigen wie sich AMD weiter am Markt hält. Schwarze Zahlen schreiben die ja schon längst, ergo sollten die mal etwas mehr in die Entwicklung und Effizienz stecken. Die neue Fab in Dresden wird hoffentlich richten.
Das war ja auch nur ein überzogenes Beispiel zur Veranschaulichung.PS: Glaube nicht das es zur Atomsimulationen genutzt wird. Eher Klimaforschung und Raytracing.
Ach? Und ich hab nur heisse Luft erzählt?Meine Ansichten entsprechen den Tatsachen, was soll daran komisch sein?
Du hast doch Nvidia angesprochen? Oder merkst du nicht mehr was du Tippst?Wie kommst du jetzt auf Fermi? Der stand doch gar nicht zur Debatte.
Ob jetzt im Grafik oder CPU Bereich, kommt doch eh alles in einen Topf. Im Grafikbereich sehe ich AMD mit ihren jahrelangen R600 optimierungen nicht mehr so Top. Sehr kontrovers Diskutiert deren Chips und vor allem die Software. Man sucht die Schuld schon an den MonitorenIm Grafikbereich konnten die sehr wohl in letzter Zeit positive Zahlen vermerken...
Fazit ist immernoch: Intel war schneller mit den Onboard GPUs, entwickelt effizientere und schnellere Chips. Und die anderen genannten Fakten überfliegst du einfach nur. Nicht klever, fällt nähmlich auf.Oder sind dir nur die Argumente ausgegangen?
Nö, du siehst das alles nur aus deinem Blickwinkel.Ach? Und ich hab nur heisse Luft erzählt?
Und in welcher Hinsicht? Es ging mir nur um deinen Nvidia-Sympathismus, den du in anderen Threads öfters mal gerne raushängen lässt, den Fermi habe ich nie direkt angesprochen. Der andere Punkt war Nvidias Engagement im professionellen Bereich.Du hast doch Nvidia angesprochen? Oder merkst du nicht mehr was du Tippst?
Dadurch konnte ATI ihre Karten auch nicht ganz so teuer verkaufen, im Endeffekt war das also für den Nutzer auch nur positiv. Was Software anbelangt, muss man sich jedoch streiten, nicht der der eine ATI-Karte besitzt, hat Treiberprobleme.Ob jetzt im Grafik oder CPU Bereich, kommt doch eh alles in einen Topf. Im Grafikbereich sehe ich AMD mit ihren jahrelangen R600 optimierungen nicht mehr so Top. Sehr kontrovers Diskutiert deren Chips und vor allem die Software. Man sucht die Schuld schon an den Monitoren
Das habe ich nicht überflogen, dieses Thema habe ich lediglich erst gar nicht angesprochen, weil es schon im Vornherein klar war. Mir geht es um deine Anschuldigungen und Argumente gegen AMD, nicht um eine allgemeine Aufzählung der Vor- und Nachteile von AMD und Intel, so wie es du offenbar machst.Fazit ist immernoch: Intel war schneller mit den Onboard GPUs, entwickelt effizientere und schnellere Chips. Und die anderen genannten Fakten überfliegst du einfach nur. Nicht klever, fällt nähmlich auf.
Auf Laptops bin ich ebenfalls nicht eingegangen, weil davon ebenfalls kaum die Rede war. Es ist ein Unterschied, ob man Fakten ignoriert oder bloß nicht auf sie eingeht, weil sie quasi schon klar sind. Oder soll ich extra noch drauf eingehen, wenn du sagst, der Himmel ist blau?Stell mal einen Turion X2 Laptop neben einem Core2 Laptop der genausoviel kostet. Schau auf den Stromverbrauch, Hitzeentwicklung, und betrachte einige Prozessor Benchmarks. Dann weisst du was ich meine, wer eigentlich die Speerspitze bildet.
Welches Spiel?[...] Die Präsentation eines DX11-Spiels [...]
AMDs zentraler Fehler der letzten Jahre war einfach, dass sie sich mit dem Athlon auf ihren Lorbeeren ausgeruht haben - den Preis dafür zahlen sie halt jetzt immernoch
AvP 2k10.
DX11 ist mir bei dem Spiel gar nicht aufgefallen.