Welche ist besser: 6600GT oder 6800LE?

-=TM=-

PC-Selbstbauer(in)
Hallo zusammen,

da ich demnächst dank Stefan Payne ;) meinen PC umbaue, wird meine 6600GT von Gainward frei.

Mein Kumpel hat zur Zeit eine Leadtek 6800LE. Nun stellt sich die Frage würde er durch meine Karte sich verbessern oder würde sich das nichts nehmen ?

Danke !
 
AW: welche ist besser 6600GT oder 6800LE

Die LE ist etwas "langsamer", der Unterschied ist aber so gering das er nicht auffallen wird, außer vllt. bei unterschiedlich großem VGA-RAM!
 
AW: welche ist besser 6600GT oder 6800LE

Die 6800LE ist standartmäßig langsamer als die 6600GT. Der Unterschied ist aber eher gering, wie xrayde schon gesagt hat. Wenn es deinem Kumpel aber gelingt mit Hilfe des Rivatuners 1 oder 2 Quads freizuschalten zieht sie der 6600GT davon. Wenn er sie dann noch übertaktet kann er sie vieleicht sogar auf die Leistung einer 6800GT bringen. In dem Falle wäre es besser seine 6800LE zu behalten.
 
AW: welche ist besser 6600GT oder 6800LE

Im auslieferungszustand sind beide etwa auf gleichem niveau, bei der 6800LE besteht aber die Möglichkeit abgeschaltete Teile wieder zuzuschalten...
 
Falls es deinen Kumpel interessiert wie man die 6800LE freischaltet hab ich hier ein Link. Dort wird es ausführlich gezeigt, wie man dabei vorgeht. Noch eine Anmerkung von mir. Es klappt auch mit den neueren Versionen von Rivatuner und wenn der Bildschirm in Windows nach der Aktivierung der Pipelines schwarz bleibt. Keine Panik einfach PC neustarten und dann erscheint automatisch ein Auswahlfenster. Dort einfach [SIZE=-1]"Windows mit letzter fuktionirender Einstellung starten" und schon hat man die Aktivierung der Pipeline Rückgängig gemachtund Windows funktioniert wieder ganz normal.
[/SIZE]
 
Man sollte ihm bei der Gelegenheit aber auch sagen, daß das freischalten nicht ohne ist.

Ich kenne einen der mehrere Karten damit geschrottet hat, die gingen nicht sofort kaputt, sondern im Laufe der Zeit.

Es wird schon einen Grund geben warum nVidia die Pipes deaktiviert hat.

Ist also kein Garant, sondern ein pokern.
 
ich bedanke mich bei allen für Ihre Hilfe. Echt toll hier !!!

@L0cke
Nach dem Umbau in ca. 1-2 Wochen können wir darüber reden. Überleg dir mal bitte was du ausgeben willst
 
Bis vor kurzen hatte ich eine 6800LE von Xpertvision Freigeschaltet 12Pipe zu 6 Vertex
seit 2005.( aufgerüstet auf PCIe die Karte läuft bis heute super )

Später hab ich einen VF900 wegen der Lautstärke verbaut und mit nibitor ein bios mod angefertigt dh die Volt zahl der GPU verändert von 1,2 V ->1,4 damit lief die GPU am ende mit 470 MHZ im 2D Modus hab ich die Karte mit 100MHz (1,1 V)laufen lassen .
die Karte hat meiner Meinung größes Tuning Potential wo sonst bekommt man 50% mehr Takt.

Zum Default Einstellungen: das die 6800LE langsamer als eine 6600GT stimmt nicht ganz
Speicher Interface
GT 128 bit 500MHz DDR -> 1000MHz
LE 256 Bit 350MHZ DDR -> 1400MHz
außerdem gibt es unterschiede im GPU Design :
eine GT kann pro Takt eine Schatten Textur berechnen
eine LE zwei oder Drei ( bin mir nicht sicher ist über 2 Jahre wo ich darüber gelesen Habe ) deshalb ist die 6800LE selbst bei Default Einstellungen in einigen Spielen schneller, etwas langsamer oder Genauso schnell wie eine GT trotz 200MHz weniger Takt!!!

Mann sollte aber die Temperaturen im Auge behalten
 
Zuletzt bearbeitet:
Wo hast Du bitteschön all die Daten und Aussagen da oben her, gibt's dazu auch Links?

GeForce 6800 LE:

Speichertakt: 350 MHz, entspricht 700 MHz DDRI effektiv

Chiptakt 2D/3D: 300/300 MHz(gibt auch welche mit 320MHz)

http://www.3dchip.de/TestCenter/2004/6800LE/6800LE.php

http://users.erols.com/chare/video.htm

...Von unten rückt nun auch noch die GeForce 6600 GT an, die besonders bei den aktuellen DirectX 9 Testläufen die Nase vorne hat...
http://www.au-ja.org/review-gainward6800le-5.phtml

Die LE liegt default ohne Freischaltung ganz leicht unter einer GF 6800(ohne was hinten dran):

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_inno3d_geforce_6800_gt_ultra/2/

Die 6600GT liegt ziemlich exakt mit auf dem Niveau der LE:

http://www.computerbase.de/artikel/...ce_6600-serie/13/#abschnitt_performancerating

Es gibt hier also keinen klaren Gewinner, denn die Unterschiede sind überhaupt nicht spürbar.

Und wenn man mal in der früheren Zeit ein wenig rumstochert und recherchiert, wird man auch ebenso viele missglückte Pipefreischaltungsversuche finden.

Daher sollte er sich dessen bewußt sein das da ein Risiko besteht.
 
Zuletzt bearbeitet:
1 Ob die GT schneller, langsamer oder genauso schnell ist hängt vom Spiel ab das wollte ich damit sagen, dh wie das Spiel Programmiert wurde !

2 die LE hat ein 256 BIT Speicher Interface die GT nur 128 BIT

deswegen ( stimmt war doppelt gemoppelt deswegen korrigiert)

GT RAM 500 DDR -> 1000MHz mit Speicher Interface 128 Bit ->1000MHz Effektiv
LE RAM 350 DDR -> 700MHz mit Speicher Interface 256 Bit ->1400mHz Effektiv

Deshalb auch ist eine HD 2900(512bit) schneller als eine HD 2600 (128bit)
der RAM Durchsatz dh GB/s ist höher

sieh her Bandbreite LE 22,4GB/s
http://www.computerbase.de/artikel/h...chnische_daten

Bandbreite GT nur 16,8 GB/s
http://www.computerbase.de/artikel/h...chnische_daten

22GB/s > 16GB/s

Das beim Overclocking immer ein Risiko besteht das sollte jedem Bewusste sein

Chiptakt stimmt 2D/3D 300zu 300 aber ich habe oben ja geschrieben das ich bei der Karte ein Bios Mod durchgeführt habe ! Hat den Vorteil das die Temperaturen in 2D fallen etwas 7-10°C
 
Zuletzt bearbeitet:
1 Ob die GT schneller,langsammer oder genauso schnell ist hengt vom Spiel ab das wollte ich damit sagen !

2 die LE hat ein 256 BIT Speicher Interface die GT nur 128 BIT deswegen hat die GT nur 1000MHz die LE 1400 MHz oder willst du behaupten das es egal ist ob das Speicher Interface 64 Bit oder 512 Bit hat

deswegen
GT RAM 500 DDR -> 1000MHz mit Speicher Interface 128 Bit ->1000MHz Effektiv
LE RAM 350 DDR -> 700MHz mit Speicher Interface 256 Bit ->1400mHz Effektiv

Deshalb auch ist eine HD 2900(512bit) schneller als eine HD 2600 (128bit)
der Ramdurchsatz dh GB/s ist höher

Das beim Overclocking gibt es immer ein Risok das sollte jedem Bewusste sein
Also ich bitte Dich, da recherchier noch mal richtig.

Ein doppelter Ringbus macht nicht aus DDR-RAM auf einmal "Quad-RAM", wo hast Du das her?

Der RAM wird effektiv genauso gerechnet wie jeder andere auch, nämlich doppelt und nicht vierfach.

Und das Speicherinterface ist egal, solange der Bolide höher getaktet, und/oder effizienter ist und dadurch die mit größerer Bandbreite schlägt, sieht man auch gut bei der HD 2900XT vs. GF 8800GTS 640MB.

Von theoretischen Zahlen würde ich mich nicht ablenken lassen, sondern mir die erreichten FPS und die rohe Leistung der Karten beäugen und vergleichen, das hat mehr Aussagekraft als die Transistoranzahl, der Ringbus und anderes: was zählt ist das was unter dem Strich raus kommt, und dafür gibt es auch genug Tests.
 
du vergleichst jetzt ATI mit NV um dein Meinung zu untermauern HaHa

bei der 6800 & der 6600 kann man diesen Theoretischen Vergleich ziehen den diese Karten sind von gleichen Hersteller und aus der gleichen Generation!
du solltest dich lieber noch mal erkundigen!
Deiner aussage nach ist das Speicher Interface also vollkommen egal und das ist es eben nicht sorry! es gibt & gab genug Karten in der Geschichte die durch eine Halbierung des Speicher Interface abgekackt sind ,ist so

bestes Bsp TNT Und TNT 64 bit !!! oder einige geforce 6200 di gab es auch mit 128 bit vs 64 , 7300

Natürlich kann man durch eine Erhöhung der Taktfrequenz die Bandbrite erhöhen, das macht man aber auch durch das Speicherinterface !

wenn du der Meinung bist das bringt nix dann schalte bitte bei deinen Intel oder den X2 dual channel aus!
 
Zuletzt bearbeitet:
2 die LE hat ein 256 BIT Speicher Interface die GT nur 128 BIT deswegen hat die GT nur 1000MHz die LE 1400 MHz oder willst du behaupten das es egal ist ob das Speicher Interface 64 Bit oder 512 Bit hat

deswegen
GT RAM 500 DDR -> 1000MHz mit Speicher Interface 128 Bit ->1000MHz Effektiv
LE RAM 350 DDR -> 700MHz mit Speicher Interface 256 Bit ->1400mHz Effektiv
Das ist kompletter Blödsinn, was du hier schreibst, du kannst nicht die Busbreite auf MHz 'umrechnen', das zeugt nur davon das du keinen Plan hast, was du hier schreibst.

Gib das ganze doch einfach in mb/sec an, wozu gibts das?!

Und lasst bitte die 'Deppenverdoppelung', die ist völliger Blödsinn, da DDR effektiv den Bus verdoppelt, nicht aber den Takt, auch wenns sich so liest...


Deshalb auch ist eine HD 2900(512bit) schneller als eine HD 2600 (128bit)
der Ramdurchsatz dh GB/s ist höher
Und die Teile die im Chip sitzen unterschlagen wir mal, was?!

Sind ja nur ein paar TMUs und etwa 2/3 der Recheneinheiten die der HD2600 'abhanden' gekommen sind...

Ist also nicht nur die Busbreite...
Ah, du kannst doch in GB/sec umrechnen bzw es ergoogeln, warum machst das nicht gleich?!
 
Und das Speicherinterface ist egal, solange der Bolide höher getaktet, und/oder effizienter ist und dadurch die mit größerer Bandbreite schlägt, sieht man auch gut bei der HD 2900XT vs. GF 8800GTS 640MB.
Liegt aber auch 'nur' daran, das die ROPs der Radeon HD Serie fehlerhaft sind und nicht die Leistung erbringen, die sie eigentlich sollten.
Eigentlich sollten die ja 4x SC schaffen, tun aber nur 2x/Cycle schaffen und noch ein paar andere Pferdefüße, wird vermutlich mit RV670 ein klein wenig besser und mit R700 dann so wies sein sollte.

AMD hatte schonmal einen Chip mit buggy Rops, so dass man sogar auf Supersampling zurückgehen musste, obwohl die Hardware MSAA kann -> R200.
Sieht man auch daran, das unter besonderen Umständen RGSSAA möglich war (kein Fog z.B.)
Von theoretischen Zahlen würde ich mich nicht ablenken lassen, sondern mir die erreichten FPS und die rohe Leistung der Karten beäugen und vergleichen, das hat mehr Aussagekraft als die Transistoranzahl, der Ringbus und anderes: was zählt ist das was unter dem Strich raus kommt, und dafür gibt es auch genug Tests.
Dem kann ich nur zustimmen, wobei die HD2600 Serie AFAIK keinen Ringbus hat sondern einen Crossbar.

Der Sinn vom Ringbus ist auch eher Transistoren zu sparen (und ev. gar bessere Multichip Unterstützung)
 
Hmmm?

Hmm, natürlich vergleiche ich ATI und nVidia miteinander, ebenso wie ich effizientere Grakas desselben Herstellers/Generation miteinander vergleiche.

Und warum um meine "Aussage damit zu untermauern", ne, ich glaub ich lass das mit Dir lieber, ich seh schon wo das hinführt, da haut ja gar nichts hin bei Dir.

Du vergleichst Äpfel mit Birnen und vergrößerst Sachen mit der Lupe(Bandbreite) die in den Benchmarks/Spielen jedoch nichts bringen im Vergleich mit anderen Karten.

Wer will denn jetzt hier seine Aussagen untermauern mit seltsamen Aussagen?

Und warum verlinkst Du keine realen Performancevergleiche sondern kommst wieder mit Deiner "Lupe"?

Und "Speicherinterface ist volllkommen egal" soll ich gesagt haben, lies mal bitte richtig und interpretier mir hier nichts rein und rezitiere nur den Dir passenden Teil dieser Aussage?

Ich würg das mal hier lieber ab, da ich den Ausgang derartiger "Diskussionen" zu Hauf kenne: man verbrennt daran nur seine Zeit.

Wer sich über die realen Aussagen informieren will, der liest die Tests und interpretiert am besten deren Aussagen und lässt alles andere hier wegfallen.


PS:

Das Thema hat sich eh geerdet:

http://extreme.pcgameshardware.de/showpost.php?p=32105&postcount=14


EDIT:

Ah, endlich mal einer hier drin den ich techn. auch ernst nehmen kann ;).
 
Zurück