AMD Fusion: Internet Explorer 9 und spielbare Live-Demo eines DX11-Spiels auf Llano-APU

Die versuchen gerade den i3/i5/G- von Intel nachzumachen. Da ist ein Grafikchip neben der CPU verbaut.
Das ist völliger Unsinn, denn das Fusion Konzept war weit vor den Intel Chips bekannt...

Wenn hier wer was nachmacht, dann ists Intel die AMD nachmachen.

Verstehe eh nicht was man mit dem Müll im Rechner will. Späterstens beim nächsten Spielchen merkt man doch eh woran man gespart hat. Jaja, jetzt kommen alle -> Reicht für Office PCs. Dafür reichen auch die RivaTNTs und GeForce Mx Chips, die Tonnenweise im Schrott landen.

Schon klar, das du nicht verstehst, weil du dir darüber keine Gedanken gemacht hast bzw überlegt, was denn nun der Sinn davon ist, du lehnst es einfach aus Prinzip ab, weil ist halt so, Argumente brauchts ja nicht, die sind dir auch völlig egal, von daher...

Anyway: ein Chip mit CPU und dem größten Teil des Chipsatzes spart einerseits Energieaufnahme, andererseits Platz auf dem Board.
Und auch kosten, ist also was für Notebooks und kleine Rechner, wo man nicht 'mal eben' 20 Chips verbauen kann...

Aber hey, in ein Booksize PC kann man halt ohne Probleme 'nen RV870 klatschen...


Natürlich ist das besser
Einerseits aus Gründen der Kühlung (keine unterschiedlich dicken Dice), auch ist der Träger einfacher, man kann das ganze auch besser integrieren, so dass die Performance besser ist...
 
Das Fuzion Konzept lag schon 2007 vor, umsetzen tun die es aber dennoch nach Intel. Zudem haben die das coole Ding Larabee "nebenbei" erschaffen. Ehre wem ehre gebürt ;)

Schon klar, das du nicht verstehst, weil du dir darüber keine Gedanken gemacht hast bzw überlegt, was denn nun der Sinn davon ist, du lehnst es einfach aus Prinzip ab, weil ist halt so, Argumente brauchts ja nicht, die sind dir auch völlig egal, von daher...
Du hast ja genausowenig auf Lager. Den Dieshrink und die Fläche sollten die Lieber in die Prozessoren investieren. Hinken nach wie vor hinterher ;)

Jaja, Phenom X6. So der reisser Chip is dat auch nich.

Anyway: ein Chip mit CPU und dem größten Teil des Chipsatzes spart einerseits Energieaufnahme, andererseits Platz auf dem Board.
In deinen Träumen villeicht. Erstens sind noch keine Messerte raus, zweitens verbraucht solch ein Chip bei weitem mehr Strom als die Oldtimer Karten die überall irgendwo als Schadstoffabfall vor sich hin gammeln.

Und auch kosten, ist also was für Notebooks und kleine Rechner, wo man nicht 'mal eben' 20 Chips verbauen kann...
Stimmt, die Abwärme der Turions kriegen die seid Jahren nicht in den Grif. Wenigstens ist der R600 kleingewachsen mit der Zeit...:lol:

Einerseits aus Gründen der Kühlung (keine unterschiedlich dicken Dice), auch ist der Träger einfacher, man kann das ganze auch besser integrieren, so dass die Performance besser ist...
Man wird sehen. Du machst aus der Theorie schon eine Ist Sache....
 
Das Fuzion Konzept lag schon 2007 vor, umsetzen tun die es aber dennoch nach Intel. Zudem haben die das coole Ding Larabee "nebenbei" erschaffen. Ehre wem ehre gebürt ;)
"Das coole Ding Larrabee"....is klar.:schief:
Jaja, Phenom X6. So der reisser Chip is dat auch nich.
Im Gegensatz zum Core i7 980X wenigstens bezahlbar. Also behalte deine vorlaute Fanboyzunge hinter deinen Zähnen.;)
In deinen Träumen villeicht. Erstens sind noch keine Messerte raus, zweitens verbraucht solch ein Chip bei weitem mehr Strom als die Oldtimer Karten die überall irgendwo als Schadstoffabfall vor sich hin gammeln.
Gut, dann verbau mal so 'ne Oldtimer-Karte mit AGP-Anschluss in einem aktuellen Rechensystem und versuch' die Treiber zum Laufen zu kriegen, könnte bei Windows Vista/7 schwierig werden.;)
 
Das hat nix mit Fanboy zu tun. In sachen Prozessor ist Intel seid dem Core2 unangefochten der beste am Markt. AMD versucht nur über Sprit mitzuhalten. Ob das auf dauer die günstigeren Prozessoren sind, bei den Emissionen? Glaube kaum...

Zudem wird Larabee so wie es aussieht in Zukunft für Entwicklungen genutzt. Was heisst hier: "Jaja"?

Das sind doch Chipentwickler? Sollen die einpaar Bits & Bytes durch die gegend wirbeln. Liegt nur am willen des Konsumenten, wie man an vielen anderen Beispielen aus dem IT Sektor kennt.
 
Das hat nix mit Fanboy zu tun. In sachen Prozessor ist Intel seid dem Core2 unangefochten der beste am Markt. AMD versucht nur über Sprit mitzuhalten. Ob das auf dauer die günstigeren Prozessoren sind, bei den Emissionen? Glaube kaum...
Dann mach mal deine Augen auf, dass sind sie nämlich.;)
Bei AMD bekommt der Kunde derzeit für weniger Geld mindestens genauso viel zu bieten. Ein Phenom II 955 reicht derzeit für alles aus, wenn nicht, dann übertaktet man halt ein bissl.
Deine Argumentationsweise ist mehr als fragwürdig, nur weil AMD im Moment nicht die schnelleren Prozessoren baut, sind sie für dich gleich Schrott. Denk' mal an die Leute, die keine 500-1000€ für eine schnellere CPU ausgeben wollen.

Zudem wird Larabee so wie es aussieht in Zukunft für Entwicklungen genutzt. Was heisst hier: "Jaja"?
Der Larrabee war ursprünglich als direkter Konkurrent zu den Radeons und GeForces geplant. Jetzt wird er (oder zumindest die Erfahrung, die Intel daraus gewinnen konnte) für Entwicklungszwecke eingesetzt. Wovon profitiert der User jetzt also mehr? Von AMD Fusion oder Larrabee?
 
Du kommst dauernd mit dem Argument Preis. Wären AMD Prozessoren preislich identisch mit vergleichbaren Intels, welchen würde der Kunde dann wohl wählen? Ausserdem ist das ein geschlossener Kreislauf, da ein AMD Phenom X4 955 (wie du erwähntest) in seiner einsatzzeit einiges an Geld kostet. Im Grunde eine Ratenzahlung auf Kosten der Umwelt. Klasse. :daumen:

Ausserdem meinte ich die Technologische Entwicklung, denn Intel ist schon bei 32 nm. "Besser" in dem Kontext zu dem Begriff "Erfahrener/Fähiger" ist ergo Intel. Eben weil sie immer schneller als AMD reargieren. Nicht nur die Clarkdales, sondern auch schaue man sich den Atom an. Ein Markt den AMD gar nicht bedienen kann, da so Hitzebeständiges Plastik recht teuer ist...:daumen:

Wovon profitiert der User jetzt also mehr? Von AMD Fusion oder Larrabee?
Ich denke in der Forschung und Entwicklung wird Larabee mehr brauchbare Ergebnisse liefern, als ein Fuzion das in Wohnzimmer rumdümpelt.

Naja, ist jetzt egal. Wenn du etwas Ironie findest...keinem weitersagen!
 
Du kommst dauernd mit dem Argument Preis. Wären AMD Prozessoren preislich identisch mit vergleichbaren Intels, welchen würde der Kunde dann wohl wählen? Ausserdem ist das ein geschlossener Kreislauf, da ein AMD Phenom X4 955 (wie du erwähntest) in seiner einsatzzeit einiges an Geld kostet. Im Grunde eine Ratenzahlung auf Kosten der Umwelt. Klasse. :daumen:
Also jetzt hör doch mal auf.:what: Ein Phenom II X4 955 z.B. verbraucht bei etwas mehr Takt weniger Strom als ein Core i7 940. Als ob es auf die paar Watt ankommen würde - bitte, das ist Haarspalterei. Komisch, wenn Nvidia mehr verbraucht als ATI, bist du plötzlich nicht so kleinlich. Und von einem Preisverhätlnis zwischen AMD und Intel von 1:1 war nie die Rede, du versuchst damit offenbar nur, ein Argument gegen AMD zu finden


Ausserdem meinte ich die Technologische Entwicklung, denn Intel ist schon bei 32 nm. "Besser" in dem Kontext zu dem Begriff "Erfahrener/Fähiger" ist ergo Intel. Eben weil sie immer schneller als AMD reargieren. Nicht nur die Clarkdales, sondern auch schaue man sich den Atom an. Ein Markt den AMD gar nicht bedienen kann, da so Hitzebeständiges Plastik recht teuer ist...:daumen:
AMD hat nach dem überraschenden Erfolg des Intel Core 2 und dem Kauf von ATI erst mal finanziell einstecken müssen - nachdem der Phenom I kaum was gebracht hat, standen die natürlich abgeschlagen da. Und da fehlt einem auch logischerweise das Geld, wenn Intel in dieser Position wäre, würde es denen nicht anders ergehen. AMDs zentraler Fehler der letzten Jahre war einfach, dass sie sich mit dem Athlon auf ihren Lorbeeren ausgeruht haben - den Preis dafür zahlen sie halt jetzt immernoch. Der Vorteil für die Käuferschaft: AMD-Kunden können von einem Preis/Liestungsverhältnis profitieren, von dem Intel-Kunden nur träumen können.:schief:

Ich denke in der Forschung und Entwicklung wird Larabee mehr brauchbare Ergebnisse liefern, als ein Fuzion das in Wohnzimmer rumdümpelt.
Klar, und selbst wenn da irgendwann Ergebnisse erzielt werden (übrigens darfst du nicht vergessen, dass Nvidia in ähnlichen Gefilden arbeitet) was bringt das dann dem User? Der hätte von seinem Fusion-System mehr, als wenn der Larrabee bei US-Forschungsinstituten für Atombombensimulationen eingesetzt wird.:schief:
 
Du bist Lustig, hast auch Interessante Ansichten.

Naja, ich hab keine Fermi und plane das erstmal nicht. Bis zum nächsten DIE Shrink, dann ziehen die Dinger hoffentlich weniger. Die BQ über die jüngst angepasste Software war doch ein echt geiler Zug :daumen:

Wir sich zeigen wie sich AMD weiter am Markt hält. Schwarze Zahlen schreiben die ja schon längst, ergo sollten die mal etwas mehr in die Entwicklung und Effizienz stecken. Die neue Fab in Dresden wird hoffentlich richten.

Trotzdem Ist Fuzion nix halbes nix ganzes. Genau wie ein i-Pad, Clarkdale GPU oder Paris Hilton. Braucht man nicht wirklich.

PS: Glaube nicht das es zur Atomsimulationen genutzt wird. Eher Klimaforschung und Raytracing.
 
Du bist Lustig, hast auch Interessante Ansichten.
Meine Ansichten entsprechen den Tatsachen, was soll daran komisch sein? Oder sind dir nur die Argumente ausgegangen? Der Unterschied ist lediglich, dass ich meinen Intel-Sympathismus für mich behalte.;)

Naja, ich hab keine Fermi und plane das erstmal nicht. Bis zum nächsten DIE Shrink, dann ziehen die Dinger hoffentlich weniger. Die BQ über die jüngst angepasste Software war doch ein echt geiler Zug :daumen:
Wie kommst du jetzt auf Fermi? Der stand doch gar nicht zur Debatte.:schief:

Wir sich zeigen wie sich AMD weiter am Markt hält. Schwarze Zahlen schreiben die ja schon längst, ergo sollten die mal etwas mehr in die Entwicklung und Effizienz stecken. Die neue Fab in Dresden wird hoffentlich richten.
Im Grafikbereich konnten die sehr wohl in letzter Zeit positive Zahlen vermerken - dass es im CPU-Bereich weniger gut läuft, liegt wohl zum Teil auch an Intels unfairen Geschäftspraktiken - auch wenn die Sache offiziell vom Tisch sein sollte, viele Computerhersteller erhalten immernoch Boni von Intel, wenn diese dessen Produkte in ihren Rechnern verbauen.;)

PS: Glaube nicht das es zur Atomsimulationen genutzt wird. Eher Klimaforschung und Raytracing.
Das war ja auch nur ein überzogenes Beispiel zur Veranschaulichung.:schief:
 
Meine Ansichten entsprechen den Tatsachen, was soll daran komisch sein?
Ach? Und ich hab nur heisse Luft erzählt?

Wie kommst du jetzt auf Fermi? Der stand doch gar nicht zur Debatte.:schief:
Du hast doch Nvidia angesprochen? Oder merkst du nicht mehr was du Tippst?

Im Grafikbereich konnten die sehr wohl in letzter Zeit positive Zahlen vermerken...
Ob jetzt im Grafik oder CPU Bereich, kommt doch eh alles in einen Topf. Im Grafikbereich sehe ich AMD mit ihren jahrelangen R600 optimierungen nicht mehr so Top. Sehr kontrovers Diskutiert deren Chips und vor allem die Software. Man sucht die Schuld schon an den Monitoren :ugly:

Oder sind dir nur die Argumente ausgegangen?
Fazit ist immernoch: Intel war schneller mit den Onboard GPUs, entwickelt effizientere und schnellere Chips. Und die anderen genannten Fakten überfliegst du einfach nur. Nicht klever, fällt nähmlich auf.

Stell mal einen Turion X2 Laptop neben einem Core2 Laptop der genausoviel kostet. Schau auf den Stromverbrauch, Hitzeentwicklung, und betrachte einige Prozessor Benchmarks. Dann weisst du was ich meine, wer eigentlich die Speerspitze bildet. Die schaffens seid Jahren nichtmal einen funktionieren Temperatursensor zu verbauen, also hör auf...
 
Zuletzt bearbeitet:
Ach? Und ich hab nur heisse Luft erzählt?
Nö, du siehst das alles nur aus deinem Blickwinkel.;)
Du hast doch Nvidia angesprochen? Oder merkst du nicht mehr was du Tippst?
Und in welcher Hinsicht? Es ging mir nur um deinen Nvidia-Sympathismus, den du in anderen Threads öfters mal gerne raushängen lässt, den Fermi habe ich nie direkt angesprochen. Der andere Punkt war Nvidias Engagement im professionellen Bereich.
Ob jetzt im Grafik oder CPU Bereich, kommt doch eh alles in einen Topf. Im Grafikbereich sehe ich AMD mit ihren jahrelangen R600 optimierungen nicht mehr so Top. Sehr kontrovers Diskutiert deren Chips und vor allem die Software. Man sucht die Schuld schon an den Monitoren :ugly:
Dadurch konnte ATI ihre Karten auch nicht ganz so teuer verkaufen, im Endeffekt war das also für den Nutzer auch nur positiv. Was Software anbelangt, muss man sich jedoch streiten, nicht der der eine ATI-Karte besitzt, hat Treiberprobleme.
Fazit ist immernoch: Intel war schneller mit den Onboard GPUs, entwickelt effizientere und schnellere Chips. Und die anderen genannten Fakten überfliegst du einfach nur. Nicht klever, fällt nähmlich auf.
Das habe ich nicht überflogen, dieses Thema habe ich lediglich erst gar nicht angesprochen, weil es schon im Vornherein klar war.;) Mir geht es um deine Anschuldigungen und Argumente gegen AMD, nicht um eine allgemeine Aufzählung der Vor- und Nachteile von AMD und Intel, so wie es du offenbar machst.
Stell mal einen Turion X2 Laptop neben einem Core2 Laptop der genausoviel kostet. Schau auf den Stromverbrauch, Hitzeentwicklung, und betrachte einige Prozessor Benchmarks. Dann weisst du was ich meine, wer eigentlich die Speerspitze bildet.
Auf Laptops bin ich ebenfalls nicht eingegangen, weil davon ebenfalls kaum die Rede war. Es ist ein Unterschied, ob man Fakten ignoriert oder bloß nicht auf sie eingeht, weil sie quasi schon klar sind.;) Oder soll ich extra noch drauf eingehen, wenn du sagst, der Himmel ist blau?
 
AMDs zentraler Fehler der letzten Jahre war einfach, dass sie sich mit dem Athlon auf ihren Lorbeeren ausgeruht haben - den Preis dafür zahlen sie halt jetzt immernoch

glaub ich nicht das die bei AMD sich ausgeruht haben , wenn man denn Forschungs Etar sich mal anguckt bei Intel und bei AMD ist schon klar das AMD nicht soviel Kohle hat und das muss man ja auch irgendwo sehen .
ich denke AMD braucht einfach deutlich laenger um eine neue Architektur aus dem Aermel zu schuetteln als es Intel Vermag ...

mfg F-4
 
Zurück