Nvidia-Re-Branding: Erst 8800 GT, dann 9800 GT und nun Geforce GTS 240

Ganu einfach weil es mittlerweile so ist das AMD mit der HD 4770 zwar keine ( stromsparende ) aber eine schnellere Alternative für die 9800 GT oder 8800 Gt wie ihr wollt habt .
Die überhaupt nicht erhältlich ist:
heise online-Preisvergleich: PCIe / Deutschland

"Artikel z.Z. nicht lieferbar"
"8 bis 14 Tage"
"in Kürze"
"Momentan nicht lieferbar"

Super Alternative....

Die Architektur war 2007 wirklich nicht schlecht , aber wenn sie die Karten schon re-branden dann kann man ja mal erwarten das sie wenigstens den Chip etwas optimieren .
Haben sie doch.....lies doch mal was ich verlinke und laber nicht einfach irgendwelchen Scheiss :daumen2::daumen2::daumen2::daumen2::daumen2:

In unserem ersten Test muss man einen Punkt ganz besonders herausstellen, welcher uns erst kürzlich bei Neumessungen auffiel; und dies ist die Leistungsaufnahme der GeForce GTS 250 im Idle-Zustand. NVIDIA gelang es mit der Einführung der GTS 250 die Leistungsaufnahme gegenüber einer 9800 GTX+, trotz höherem Speicherausbau und trotz gleicher Taktratenabsenkung, noch einmal deutlich zu senken. In diesem Leistungssegment hat NVIDIA ganz offensichtlich aktuell die Nase im Idle-Betrieb vorne.
 
ui nen die shrink auf 55 nm und die GTX Variante hat nen shadercluster mehr .
Liegt daran das sich die Karte auch im idle runtertaktet ,was die GT 200 Karten ja auch machen .
Da kann AMD aber auch nix für ,sondern TSMC.
Ich habe schon verstanden ,das die G 92 Architektur auch heute noch ausreicht .
Aber du hast nicht versatenden was Ati fan und ich meinen
 
ui nen die shrink auf 55 nm und die GTX Variante hat nen shadercluster mehr .
Liegt daran das sich die Karte auch im idle runtertaktet ,was die GT 200 Karten ja auch machen .
Da kann AMD aber auch nix für ,sondern TSMC.
Natürlich kann AMD was für den hohen Stromverbrauch ihrer Karten, besonders im Idle. Nvidia fertigt ja auch bei TSMC und hat den Stromverbrauch im Griff.

Ich habe schon verstanden ,das die G 92 Architektur auch heute noch ausreicht .
Aber du hast nicht versatenden was Ati fan und ich meinen
Nein, denn du hast mir immer noch nicht gesagt, wo denn nun der Vorteil für den Kunden wäre, wenn Nvidia anstatt des G92b einen neuentwickelten GT202 einsetzen würde. Außer das das Label "neu" drauf prangert, würde es keinen geben. Also warum nicht den alten Chip verwenden?
 
PCGH Marc, ich sagte das nur aus Spaß, ich weis, das die GTS 240 (8800/9800GT) nicht schneller ist als die GTS 250, da es nur 112 Shader hat und die GTS 250 gut 128 davon hat. Es sollte nur ein Witz sein, das auf die bescheuerte namens vergabe passt.

Und echt langsam geht es hier unnötig rund, da diese Thema schon von so vielen Foren und Seiten Besprochen wurde und viele (überwiegend) sich einig waren, das Nvidia es lassen sollte, und besser neue Produkte als Neu zu verkaufen. ENDE ich gebe auf es euch (die es nicht raffen) noch zu erklären, habt ihr nix besseres bei dem Wetter zu tun (Freibad, See, meer, Grillen, Wandern oder allgemein etwas anderes ausser das Netz) ich kam grad von der Arbeit und daher wundere ich mich das hier am ende der Woche noch jemand ist.

Und zum Thema warum man einen Neuen Chip bringen sollte, da kein Chip Perfekt ist und somit immer Überhol bedarf da ist:
G92(b) 128 Shader 64 TMUs 16 ROPs 256 Bit Bus, DX10
GT205 (fiktiv) 160 Shader 48 TMUs 16 ROPs 128 Bit Bus (GDDR4/5) DX10.1 (also +- wäre der neue Chip schneller und günstiger und was wichtiger ist NEU)
GT207 (auch nur so eine Idee) 128 Shader 56 TMUs 20 ROPs 256 Bit GDDR4 und DX10.1 und Computeshader (auch hier wäre der neue in manchen Spielen schneller und sparsamer)

Die Transistoren anzahl vom G92 und G80 sind ja nicht gleich, der G80 hat weniger und ist bei dem Selben Takt schneller, der eine hat 680 Mio (G80) und der eine über 750 Mio Transistoren. also könnte man da noch was machen, die G92 GPU hat viel zu viele TMUs und im verhältniss zu wenig ROPs (G80 hat mehr als 16 ROPs) und auch die Shaderleistung kann da was bringen.
 
Zuletzt bearbeitet:
Ich schließe mich mal Ati fan an ,diese ist komplett überflüssig ,weil andere sich wohl am liegsten eine 8800 GT ,eine 9800 Gt und GTS 240 kaufen würden ,aber naja :schief:
 
3.2.1 und jetzt wird wieder einer einen Komentar abgeben und was sagen, oder einer meiner oder deiner Aussagen gegen uns verwenden.

Das ist meine letzte nachricht für dieses Thema und ihr solltet es auch langsam lassen, das ist ja Peinlich.
 
Ich schließe mich mal Ati fan an ,diese ist komplett überflüssig ,weil andere sich wohl am liegsten eine 8800 GT ,eine 9800 Gt und GTS 240 kaufen würden ,aber naja :schief:
schade, dass du mir noch immer nicht sagen konntest, wo nun der vorteil eines neu entwickelten chips gegenüber einem G92 liegen würde...

aber so ist das immer: es wird groß rumgeheult und wenn man nachbohrt stellt sich nur raus, dass derjenige schlicht und einfach keine ahnung hat :daumen2:
 
schade, dass du mir noch immer nicht sagen konntest, wo nun der vorteil eines neu entwickelten chips gegenüber einem G92 liegen würde...

aber so ist das immer: es wird groß rumgeheult und wenn man nachbohrt stellt sich nur raus, dass derjenige schlicht und einfach keine ahnung hat :daumen2:

Okay ,auch wenn ich es schwach finde auf deine Provokation einzugehen
...
man hätte es z.B so wie AMD machen können und auf GDDr5 Speicher setzen können ,damit hätte man Produktioskosten gespart und könnte die GPU billiger anbieten .
Ein weiteres Kriterium wäre die Einheiten einfach mal weiter zu entwickeln , das hätte die rechenleisung erhöht und man hätte vllt. mit der AMd Konkurrenz gleichziehen können ,da man ja mehr TMU´s hat wäre man auch schneller unterwegs .

Naja,aber das hat Ati fan auch schon angedeutet ,aber ihn hast du scheinbar ignoriert :schief:
 
man hätte es z.B so wie AMD machen können und auf GDDr5 Speicher setzen können ,damit hätte man Produktioskosten gespart und könnte die GPU billiger anbieten .
Wozu? ATI schafft es dadurch einen Idle-Stromverbrauch von 60W (!) zu erreichen. Die 40W einer (DDR3-)HD4850 sind ja schon nicht berauschend, aber die Stromverbräuche der DDR5-Riege sind ja absolut indiskutabel - besonders im Vergleich zu dieser "veralteten" GTS 250 mit unter 20W....

Außerdem: Bei DDR3 ist durch das größere Speicherinterface das PBC teurer, bei DDR5 die Speicherchips. Weißt du was nun billiger ist?

Ein weiteres Kriterium wäre die Einheiten einfach mal weiter zu entwickeln , das hätte die rechenleisung erhöht und man hätte vllt. mit der AMd Konkurrenz gleichziehen können ,da man ja mehr TMU´s hat wäre man auch schneller unterwegs .
Man ist doch bereits schneller als die Konkurrenz:
Was NVIDIAs GeForce GTS250 im Bereich Performance betrifft, so hat man das gesteckte Ziel grundsätzlich erreicht. Man kann den ausgesuchten Kontrahenten in der Menge der Betrachtungen durchaus schlagen und preislich bewegt man sich auf dessen Niveau.
Dopingkontrolle: NVIDIA GeForce GTS250 - Fazit (Seite 47) - Artikel & Testberichte bei HardTecs4U

Was will man denn noch? Die hauseigene GTX-Konkurrenz schlagen? Kontraproduktiv.

Bleibt immer noch die Frage: Wo ist der Vorteil eines neuen Chips?

Naja,aber das hat Ati fan auch schon angedeutet ,aber ihn hast du scheinbar ignoriert :schief:
Den hab ich schon lange auf ignore, so ein Gelaber kann ja kein Mensch mehr als 3 Posts ertragen, solange man kein absoluter ATI-Fan ist....

Ach so, deswegen liest du seine posts noch.... :ugly:
 
dann lies doch mal den Stromsparbericht der pcgh.
da verbraucht die Radeon HD 4850 gerade mal 19 Watt .
Jo da haste Recht ,so langsam könnte AMD den Powerplaybug mal auf die reihe kriegen .

JO ,kann ich auch von dir behaupten ,mann muss schon absouluter nV fanboy sein ,damit man dir noch glauben kann , du beruhst darauf das der G 92 schon so fast das optimum ist und es okay ist die karte zu re-branden .
Aber warum glaubst du ist ein e8800 Gt schneller als eine 7800 Gt und eine 6800 nochmals langsamer .
Genau ,weil die Spiele immer anspruchsvoller werden .
Im mom ist das etwas durch die Konsolen gestoppt ,aber schau dir z.B mal HD 4830 gegen 8800 oder 9800 Gt an
Test: ATi Radeon HD 4830 Nachtest (Seite 18) - 30.10.2008 - ComputerBase

Dort ist die 9800 deutlich stromhunriger

Oder HD 4670 gegen 9500 GT ,die HD 4670 ist nicht nur schneller ,sondern auch sparsamer .(9 zumindest im Idle )
Test: ATi Radeon HD 4670 (Seite 25) - 10.09.2008 - ComputerBase
 
Alter ATI fan22 las ihn doch Hey er kann mich ignorieren, das ist mir egal, der glaubt wohl ich will was von ihm lesen, das er kaum was weis zeigt er selber.
Ich habe noch nie eine GPU archtektur gesehen, die PERFEKT ist und daher würde ich sagen, auch der G92(b) hat über hol bedarf.

Statt GDDR3 kommt GDDR4 (bei gleichem Takt sparsamer) und statt 64 TMUs nut 56 oder 52 TMUs, da so viele TMUs echt zu viel sind. Eine HD 4870 oder 4850 haben ja nur 48 und eine HD 4770 hat nur 32 TMUs und eine HD 3870 nur 16 TMUs und die kommen damit gut zurecht. Also auch an den ROPS kann man was machen, da ATI ab 8x AA besser ist und ihr Parallax Mapping eine bessere Qualität hat dank ihrer Shaderarchitekur, also wenn du es immer noch nicht raffst, solls dir der andere ATI Fan(22) sagen.

Oh eh ich es vergesse, eine Mobile HD 4850/4870/4860 ist sparsamer (im Idle und Last) und schneller als jede Mobile Nvidia GPU (alle High End GPUs sind entweder G92 [GTX 280M, GTX 260M, 9800M GTX, 9800M GT, 8800M GTX, 8800M GTS] oder G94 [9800M GTS, 9700M GTS, GTS 150M, GTS 160M]) und weist du was die alle sind langsamer und strom hungriger.
Ein Testsystem mit HD 4850 (MSI GT725) zeigte das die GPUs von ATI viel besser sein können, und Nvidias GTX 260M (beide gleich schnell) ist strom hungriger und lahmer in manchen Spielen. Also komm nicht mit der G92(b) sei TOP und Voll ausgereift, das ist kein CHIP, das einzige was ich kenne, das so ist ist die Xbox 360 (hat wirklich eine Gute Technik drin und die sehr Effizient ist).

Test: ATi Radeon HD 4670 (Seite 22) - 10.09.2008 - ComputerBase hier könnt ihr sehen ganz unten ist die HD 3870 und 8800 GT und die 8800 GT ist nur um 17% schneller als die HD 3870 und das bei den Daten: oh eh ich es vergesse, je höher die Auflösung wird und AA wird, desto besser ist die 9600 GT und HD 3870 und irgendwann ist die 8800 GT schwächer als die HD 3870 und selbst die 8800 GTS 512 (G92 mit allen shadern) ist dann unterlegen.

8800 GT hat 56 TMUs und 16 ROPs und auch so um die 505 Gflop
HD 3870 hat nur 16 TMUs und 16 ROPs und weniger Gflop, nur 497 und es langt wie du siehst, wenn man nur 32 TMUs hätte, was die GPU kleiner und günstiger und sparsamer machen würde, da eine 9600 GT nur 32 TMUs hat und die 8800 GT nur 20% schneller ist, hätte die 9600 GT auch 112 Shader statt 64, dann wäre diese genau so schnell. Also immer noch davon überzeugt G92(b) sei ein Toller Chip.
Ich finde Bucklew hat kaum wirklich gute Argumente, ist halt ein FANBOY in grün.

Und ich bin kein Fanboy lies was unten steht, was ich kaufen würde (GTX 380M) also und wenn das nicht langt, ich habe eine Nvidia GPU und davon sogar 2, 9600M GT 512 MB GDDR3 und 9800M GTS mit 1 GB GDDR3 und was sagt das aus wenn Nvidia in einer Preisklasse TOP ist dann bin ich dabei und kauf es, aber da die HD 4000 Serie den besten Preis bei gleicher leistung hat, bin ich halt zur zeigt eher für ATI (zurzeit).
 
Zuletzt bearbeitet:
dann lies doch mal den Stromsparbericht der pcgh.
da verbraucht die Radeon HD 4850 gerade mal 19 Watt .
Jo da haste Recht ,so langsam könnte AMD den Powerplaybug mal auf die reihe kriegen .
Das ist nachweislich falsch:
Grafikkarten-Leistungsaufnahme - Update mit HD 4870 X2, GTX 295 und Stellungnahme - Grafikkarte, Leistungsaufnahme, Radeon, Geforce

HD4850: 42W

Entspricht auch genau dem, was ich von HT4U schon verlinkt hatte:
Leistungsaufnahme von Grafikkarten in Spielen - Leistungsaufnahme Radeon HD 4850 / HD 4890 (Seite 4) - Artikel & Testberichte bei HardTecs4U

JO ,kann ich auch von dir behaupten ,mann muss schon absouluter nV fanboy sein ,damit man dir noch glauben kann , du beruhst darauf das der G 92 schon so fast das optimum ist und es okay ist die karte zu re-branden .
Aber warum glaubst du ist ein e8800 Gt schneller als eine 7800 Gt und eine 6800 nochmals langsamer .
Genau ,weil die Spiele immer anspruchsvoller werden .
Deshalb wurde ja auch die zwei alten Highend-Karten mit G92 zur Midrange "degradiert". Wo schreibe ich, dass der G92 Optimum ist? Ich sage nur, dass er in der Summe seiner Eigenschaften ebenbürtig zur Konkurrenz ist und ich da kein Problem sehe, wenn man ihn immer noch verkauft. In einigen Teilbereichen (idle-Verbrauch z.B.) ist er den aktuellen Konkurrenzkarten sogar haushoch überlegen. Daher erschließt sich mir der Sinn nicht, dass man unbedingt einen neuen Chip machen muss, nur damit "neu" drauf prangern kann, wenn man als Kunde davon keinen Vorteil genießt. Ist genauso wie der aktuelle GDDR5-Speicher. Als Kunde nur den Nachteil des hohen Stromverbrauchs, aber keinerlei Vorteile.

Im mom ist das etwas durch die Konsolen gestoppt ,aber schau dir z.B mal HD 4830 gegen 8800 oder 9800 Gt an
Test: ATi Radeon HD 4830 Nachtest (Seite 18) - 30.10.2008 - ComputerBase

Dort ist die 9800 deutlich stromhunriger
Die rebrand Karten (und um die geht es ja hier) sind allerdings genauso sparsam:

Test: Nvidia GeForce GTS 250 (Seite 23) - 03.03.2009 - ComputerBase

Den letzten Hinweis hab ich mal gelöscht. Wir reden hier über GTS240/GTS250 und deren Konkurrenten. Andere Karten haben da nichts verloren.
 
1. die HD 4850 verbraucht weniger (idle) als die 9800 GTX+ (das Konkurenz Produkt)
2. GTS 250 ist neuer auch wenn es die 9800 GTX+ ist, so hatte nvidia zeit die GPU im Idle zu Optimieren und immer hin kam diese 1/2 jahr später.
3 AMD könnte ja eine HD 4855 (ja schon richtig gelesen) die auch besser im Idle ist und auch hier auf den 40nm oder 45nm Prozess umsteigen.
4. Du nervst ungemein, sowas wie dich habe ich noch nie gesehen, FREAK der güte klasse.
5. Lass es ich komm grad von draussen und schau aus Neugier vorbei und was sehe ich, eine Post von Bucklew.
6. Niemand zwingt dich eine HD 4850 zu kaufen und mich niemand eine GTS 250/240, da ich Hirn habe und sowas meide wie die PEST.
 
ich hab mir jetzt den gesamten Beitrag durchgelesen und kann nur sagen:
wie kann man sich darüber aufregen, dass ein Bezeichnungssystem von
"nicht liniear" (verwirrend) durch ein liniares (userfreundlich) ersetzt wird.
 
Zurück