Bulldozer: AMD-Folien zeigen Benchmark-Performance und Preisgestaltung

Laut Gerüchten arbeitet MS an Patches um den Bulli besser nutzen zu können.

Wir erinnern uns an Intels erste Hyperthreating Krücken...

@ Qeeny

Hier muss Mann/Frau mit allem Schabernack rechnen. Auch mit dämlichen Schreibfehlern.

@ Kuschluck
Intelligenter Geiz spart Geld, dummer verbrennt es.

Außerdem: Wi alt ist den der Buldozer?
Der ist doch nicht einmal auf die Welt gekommen, muss erst mal durch seine Kinderkrankheiten durch, ähnlich Nvidias Thermis:ugly:.
Oder Intels Q6600. Der war lange Zeit zu parallel heute genau richtig.

Und sagt nicht Intel selber "4Jahre Vorsprung vor Konkurrenz"?


Edit. Bin Beim helfen in Acronis.

Thermis hatten genug leistung sogar die meiste die es gab :) und thermis heißen nur so wegen der scheiß kühlung :) amd hatte keine probleme dannach ähnlich "verschwenderische" grafikkarten zu bauen und die 580 würde ich nicht als viel sparsamer bezeichnen :) es kamen neue tricks bei Amd und nvidia dazu um den furmark zu täuschen :)

wie gesagt eine gtx 480 die heute noch schneller ist als jede amd single gpu :P und auch schneller als ne gtx 580 @stock würde ich nicht als den ultimativen fehler sehn :P und schon garnicht auf stufe mit phenom I und Bully stellen

Man sollte echt mal nen Test machen :) GTX 480 + neuer Kühler (also den der GTX 580) glaube nicht dass sie in sachen hitze noch so negativ auffält :P

und stabil is se auch läuft immerhin seit release mit 930 jetzt 960 mhz => schneller als 580 @stock :)

bulli schafft wenn er froh ist ein älteres modell mit OC ^^
 
wie gesagt eine gtx 480 die heute noch schneller ist als jede amd single gpu :P und auch schneller als ne gtx 580 @stock würde ich nicht als den ultimativen fehler sehn :P und schon garnicht auf stufe mit phenom I und Bully stellen
@Stock ist ne GTX 480 auch nicht schneller als eine HD 6970, beide sind genauso schnell wie eine GTX 570. Zusätzlich ist der Verbrauch einer GTX 480 auch höher als der einer schnelleren GTX 580 (beide @Stock).

Übertakten kann man alles, egal ob GTX 480/GTX 580/GTX 570 oder HD 6970. Also ist es kein Argument, dass deine übertaktete GTX 480 schneller ist (und noch mehr Strom verbrät).
 
@Stock ist ne GTX 480 auch nicht schneller als eine HD 6970, beide sind genauso schnell wie eine GTX 570. Zusätzlich ist der Verbrauch einer GTX 480 auch höher als der einer schnelleren GTX 580 (beide @Stock).

Übertakten kann man alles, egal ob GTX 480/GTX 580/GTX 570 oder HD 6970. Also ist es kein Argument, dass deine übertaktete GTX 480 schneller ist (und noch mehr Strom verbrät).

aber der mehrverbrauch einer gtx gegenüber der neueren gtx 580 ist allein vom verbrauch nicht so extrem dass man schreien müsste thermi bla bla bla.

oder etwa nicht ? (bedenke die karte war früher draußen und ist nicht viel langsamer)

dieses thermi gebashe war hausgemacht vor allem auch wegen dem kühler.

heute ist es ne normale grafikkarte und ich hätte keine bedenken ne neuere natürlich noch schnellere mit diesem leistungsverbrauch zu kaufen. ATI damals ja 5870 als gegner zu Thermi guckt bei allem was tesselation nutzt extrem dumm aus der wäsche. (und auch dort sollte man mal den furmark befragen bevor man lauthals herzieht)
 
...Raspberry Pi: 25-Dollar-PC mit HDMI und 700 MHz

#1 Ein Video 1080p abspielen,
#2 ein Video 1080p flüssig abspielen und
#3 einen Film 1080p flüssig abspielen
sind komplett verschiedene Sachen.

Dazu kommt das: "1080p30 H.264 high-profile decode" wird mit einer Streaming Technologie realisiert (aussage des Devs auf deren HP), d.h. dass ein anderer Rechner das Rechnen übernimmt und das Board "nur" den Stream anzeigt.

Nichtsdestotrotz ist es ein sehr schönes Board und ein tolles Projekt. Ich werde es weiter verfolgen. Vielen Dank für die Links. Schönes Konkurrenzprodukt zum Pandaboard, wobei die mit ihrer Software schon weiter sind und echtes 1080p decodieren können.

Einen Rechner bzw. einen HTPC kann es aber lange nicht ersetzen. Außer du hast einen Server, der die Arbeit übernimmt... womit wir wieder bei Punk A - mehrere PCs - sind.

MfG
 
aber der mehrverbrauch einer gtx gegenüber der neueren gtx 580 ist allein vom verbrauch nicht so extrem dass man schreien müsste thermi bla bla bla.

oder etwa nicht ? (bedenke die karte war früher draußen und ist nicht viel langsamer)
Ne GTX 580 ist 15-20% schneller als ne GTX 480 und verbraucht je nach Test 10-20W weniger. Das ist zwar zugegebenermaßen nicht viel weniger Stromverbrauch, aber eben doch noch einiges vor allen bezogen auf die Mehrleistung. Und wie gesagt würde sich auch die GTX 580 sicher noch übertakten lassen. Eine GTX 570 verbraucht zum vergleich ganze 40-50W weniger als die gleichschnelle GTX 480, das ist imho schon ganz ordentlich. Der Name Thermi ist also durchaus berechtigt, nicht nur wegen der Lautstärke sondern wegen der deutlich höheren Leistungaufnahme.
 
@Kuschluk von FLAYER
Da stimmt was mit dem Meßgerät nicht.....hab nen 24 Dell und ein 22er Dell PII 1090 @4GHZ + 5870 OC von Power color + WAKÜ + 2 externe Platten + einen Mora mit 9 Lüfter zustätzlich und komme unter Vollast auf 430Watt aus der dose......

nochmal 30 Tage warten bis es endlich mal gescheite benchs gibt

AW: das ding stimmt aber sonst überall :)
hi...sry für die späte antwort

ne...zumindest meine Karte wird nicht runtergetaktet bei Furmark....aber hab das auch schon gehört, das es da mal karten gab, die dann runtertakteten....

Vollast heißt cpu + GPU....das was geht halt.....aber hast recht gehabt....ich hatte nur mit Prime laufen und komme da an die 390 Watt mit furmark kratze ich da an der 560-570Watt marke....


Gruß

so ....


und nun ich :

max heat prime 95

172 vorher -> 264 -> nachher 167 Watt

Furmark max heat 1920x1200 32x aa

168 vorher -> 527 -> nachher 163 Watt

Furmark max heat + prime max heat gleiche settings.

168 vorher -> 620 -> Nachher 163 Watt

laut Be QUIET Diagramm müsste die effizenz so um die 90 % liegen + - 3 %
Mit dem Phenom II wars halt nen guten ecken höher aber ich finde das hier reicht auch.

graka Vcore 1,138 Volt , CPU vcore 1,242 Volt, RAM 1,5 Volt

Meine Leistung liegt über einer GTX 580 @stock

wo seine liegt weiß ich nicht allerdings ehr darunter => war thermi nicht so böse wie er gemacht wurde in sachen stromhunger sondern ehr ne dumme kühlung ! AMD wäre froh wenn sie beim Bully nur ein anderes Blech draufschnallen müssten !:devil:





Ne GTX 580 ist 15-20% schneller als ne GTX 480 und verbraucht je nach Test 10-20W weniger. Das ist zwar zugegebenermaßen nicht viel weniger Stromverbrauch, aber eben doch noch einiges vor allen bezogen auf die Mehrleistung. Und wie gesagt würde sich auch die GTX 580 sicher noch übertakten lassen. Eine GTX 570 verbraucht zum vergleich ganze 40-50W weniger als die gleichschnelle GTX 480, das ist imho schon ganz ordentlich. Der Name Thermi ist also durchaus berechtigt, nicht nur wegen der Lautstärke sondern wegen der deutlich höheren Leistungaufnahme.
=> das ist das ergebnis von einem jahr entwicklung :P

aber wenn man thermi so gebasht hat müsste man die 580 auch noch bashen ! (mir ist der verbrauch egal) und ich sage nur gtx 480 kann doch kein flop gewesen sein wenn sie kaum mehr verbraucht und heute noch locker mithalten kann ...


ja worauf ich hinaus will ist das ist der nachfolger ! und bei BD ist der neue langsamer als der alte von INTEL
 
Zuletzt bearbeitet:
Also ich warte mal in Ruhe die Benches+Tests von PCGH ab, bevor ich mich an Diskussionen von wegen Stromverbrauch etc.
beteilige.:ugly:.....!!!


Greets Winpo8T
 
aber wenn man thermi so gebasht hat müsste man die 580 auch noch bashen ! (mir ist der verbrauch egal) und ich sage nur gtx 480 kann doch kein flop gewesen sein wenn sie kaum mehr verbraucht und heute noch locker mithalten kann ...
Beim Bulldozer ist es ja sowas von schlimm, dass er unter Volllast 30W mehr zieht als ein etwa gleich schneller 2500K und auf jeden Fall DER Grund, sich ein Intel System zu holen. Und das obwohl ein PC eh meist idlet, wo sowohl Intel als auch AMD etwa gleich viel verbrauchen (Bulldozer bringt übrigens auch neue Stromsparmechanismen mit).

Aber bei der Grafikkarte sind 40-50W (übertaktet deutlich mehr) egal :schief:.

Und um zum Thema zurück zukommen: Ob man sich nen Bulldozer kauft, hängt ja auch davon ab, was man bisher für einen Rechner hat. Wenn man wie ich bspw. den passenden Untersatz hat und es eine CPU gibt, die wenigstens in etwa mit Intel gleichziehen kann, dann ist das natürlich ne Alternative für mich. Selbst wenn er die eine Stunde am Tag, die ich zock ein paar Watt mehr verbraucht. Wie lange wird es wohl dauern, bis ich die Kosten für ein neues Mainboard durch die paar Cent an Strom, die ich im Jahr spare wieder reinzu bekommen? Bis dahin ist Sandy Bridge auch schon lange nicht mehr aktuell^^.
 
@Kuschluk
So denken auch viele, die sich fast einen 2600K geholt hätten. Ich für mienen Teil halte das Verhalten von AMD für sehr interessant und traue ihnen zu, dass sie noch ein Ass im Ärmel haben. Das muss auch niemand anderes glauben, aber ich denke halt so. Spart euch also bitte eure negativ-weissagungen. Ich weiss sehr wohl was ich mache und wofür ich mein Geld ausgeben möchte.;)

@PsychoQeeny
Was machst du eigentlich wenn sich herausstellen sollte (einfach mal angenommen), dass Rudiratlos recht behält und Bulldozer wirklich extrem performant ist? Weinen, Jammern, oder dich in aller Form entschuldigen?
 
Zuletzt bearbeitet:
Also der der mir erzählt Parallelisierung ist ihm egal, ist ja bloß zukunftssicher, mir dann erzählt seine gtx 480 mit massiv Tesslation wäre besser als eine mindestens gleich schnelle HD 5850 mit wenig Tesslotoren...
Obwohl Tesslation, wenn überhaupt nur in homöopathischen Dosen eingesetzt. so toll ist...

Selbstironie? :devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil::devil:

Zum Raspberrypy, der wird ständig weiterentwickelt. GraKas haben ja auch Videochips. Und Quake 3 mit einer 700MHz CPU zu zocken...

Hier läuft das HD Video ohne Ruckler:
Raspberry Pi video capabilities - YouTube

Aufgaben an Spezialchips zu delegieren ist ja nicht schlimm, früher gab es ja auch keine GraKas, Soundkarten... Und wenn es Strom spart. 1Watt zu 100Watt?????:daumen:
 
@Research: langsam haben wirs mitbekommen, dass du total begeistet auf deinem Raspberry Q3 zockst :D (wobei mir da die FPS zu niedrig wären, 125 müssen es schon sein ;)). Übrigens hast du bei der 1Watt Rechnung vergessen, dass das Teil ja irgendwo her die Media-Dateien ziehen muss um sie auf den TV zu streamen. Im einfachsten Fall über USB-Platte, die selbst auch Strom zieht oder halt über einen NAS bzw gar einen anderen PC, letzteres frisst dann auch wieder so viel Strom, als wenn man den PC direkt an den TV steckt.

Und ne HD 5850 so schnell wie eine GTX 480/GTX 570? Dass die GTX 480 ein Stromfresser ist, ist klar (hab ich auch verdeutlicht), aber schnell ist sie trotzdem, ca 40% schneller als ne HD 5850 (beide @Stock) auch ohne Tessellation.
 
Via microSDcart.
Ich bin nur begeister wie wenig die brauchen um das zu laufen zu kriegen, denke ich da an 1,2GHz Dualcore ARMs.:wow:
Besonders liebe ich ihn wenn es zu Stromsparorgien kommt, wenn 1000 Watt Boliden zum Multimedia-PC erklärt werden.:devil:

Eine GTX 470 ist schneller als eine HD 5850?? In der PCGH 07/2011 im Leistungsindex Single-GPU lese ich gerade. Im Schnitt fehlen 9 Frames zu einer Karte die später erschienen ist. :ugly:
 
Ich habe hier eine GTX480 und im Idle verbraucht mein System etwa 45 Watt weniger als mit der hd4870 vorher :D
Vom Verbrauch unter Last reden wir lieber nicht :fresse:
 
Zurück