PCGH-Retro: Gewagte Prognosen, ein neuer Via-Chipsatz und der Windows-Quellcode

Ich denke die heutige Architektur ist nicht für ein Vergleich mit dem Gehirn geeignet. Im Gehirn werden nur Vergleiche angestellt, nichts berechnet ... es sind reine aufeinanderfolgende und verzweigende Verknüpfungen (Vereinfacht dargestellt)

Im Rechner simuliert man die Mengen durch Objekte ... im Gehirn reagieren nur chemische Stoffe, die keiner Simulation bedürften. Analog dazu: Teilchensimulation vs. Wirklichkeit.

Man kann ein Binäres System nicht mit einem solchen Analogen vergleichen. Was viele einfach missachten.
Daher wird erst seit "neusten" nach Bauteilen geforscht als Neuronen agieren können. Zumal ich es als Unsinn erachte versuchen zu wollen mittels "Energie" mehrere verschiedene Stoffe nachzubilden. Ich kann doch nicht mit einem schwarzen Stift rosa malen ...

Ein hemmender Faktor für KI in Autos sind ja wohl die Konservativen Leute in Politik und Privatleben. Ideen und Prototypen gibt es viele ... aber wenn nichts akzeptiert und gekauft wird, wird auch nichts Produziert und billiger. Von daher war seine Prognose soweit richtig, ihm unterlief nur der Fehler die Menschliche Trägheit nicht mit einbezogen zu haben.
 
Ich denke die heutige Architektur ist nicht für ein Vergleich mit dem Gehirn geeignet. Im Gehirn werden nur Vergleiche angestellt, nichts berechnet ... es sind reine aufeinanderfolgende und verzweigende Verknüpfungen (Vereinfacht dargestellt)
:D Behaviorismus?
Also an und für sich ist der überholt, es finden sehr wohl verarbeitende Prozesse im Gehirn statt

Zumal ich es als Unsinn erachte versuchen zu wollen mittels "Energie" mehrere verschiedene Stoffe nachzubilden. Ich kann doch nicht mit einem schwarzen Stift rosa malen ...
vielleicht wenn man ganz fest niederdrückt :ugly:
Achso habs umgekehrt gelesen. Na dann nur ganz sanft und mit liebe malen :)
Deinen vorigen Vergleich habe ich nicht verstanden, bitte ausführen.
Ein hemmender Faktor für KI in Autos sind ja wohl die Konservativen Leute in Politik und Privatleben. Ideen und Prototypen gibt es viele ... aber wenn nichts akzeptiert und gekauft wird, wird auch nichts Produziert und billiger. Von daher war seine Prognose soweit richtig, ihm unterlief nur der Fehler die Menschliche Trägheit nicht mit einbezogen zu haben.
Ist auch gut so. Selbst wenn die Testautos heute schon tausende Kilometer fehlerfrei schaffen, ja viel fehlerfreier als der Mensch, so kann immer noch irgendwo im Programm eine falsche Reaktion vorprogrammiert sein, wenn ein unvorhersehbares Ereignis eintritt. Ich erinnere mich ans Airbus Unglück in Warschau. Hmmm.
 
jeder der 2002-2003 einen athlon xp kaufte hatte sich einen unterbau in form eines nforce2, oder nforce2 ultra/400 gegönnt... der kt880 wäre auch ein jahr vorher keine ernsthafte konkurenz im high-end bereich für nvidia gewesen, da er in den meisten benchmarks deutlich langsamer war...
 
:D Behaviorismus?
Also an und für sich ist der überholt, es finden sehr wohl verarbeitende Prozesse im Gehirn statt
Uff, da hast du mich aber in eine tolle Schublade gesteckt x) Nein ganz so einfach ist das nicht. Im zuge einiger Arbeiten bin ich etwas ähnliches Gestoßen, ja. ABER bisher konnte ich kein Gehirn intensiv auseinander-nehmen und erforschen. Leider. Im Behaviorismus ist man ja der Meinung, man kann jede Gedanken und Verhaltensweisen durch Training und Reizungen umkrempeln. In der Realität funktioniert das weniger Erfolgreich bei komplexeren Sachverhalten. Was ich allerdings meinte ist eine sich selbst verstärkende, abschwächende, also wechselseitige Beeinflussung von Arealen im Gehirn. Im Behaviorismus geht man von IF ... then ... Abfagen aus. Ich gehe von einer starken Paralellisierung aus. Vom INPUT ausgehend, verzweigen sich die "AUSSORTIERER" und irgendwo im Gehirn, oder in mehreren Arealen treffen sich die Signale wieder.(Ein Objekt wird schon nach 15 Neuronen erkannt, jedenfalls gehen zwei Forscher davon aus, die entsprechende Experimente gemacht haben und die Ergebnisse so interpretiert haben) Dort verleiben die SIGNALE allerdings nicht, sondern werden weitergeleitet. Jedesmal wenn eine Überschneidung geschieht kommt uns dann ein Gedanke. Wie sich dieses System aus Arealen allerdings bildet, ist mir ein Rätsel. Ich gehe aber davon aus, dass es sich analog zur Dekomprimierung in der Informatik verhält.

vielleicht wenn man ganz fest niederdrückt :ugly:
Achso habs umgekehrt gelesen. Na dann nur ganz sanft und mit liebe malen :)
Deinen vorigen Vergleich habe ich nicht verstanden, bitte ausführen.
Siehe erste Antwort: erstmal Gehirn verstehen und dann vergleichen, im Moment "tabsen" wir im Dunkeln und wollen trotzdem Vergleiche anstellen???(Retorische Frage)
Beim Gehirn handelt es sich für mich um ein analoges System, weil es mehrere verschiedene Stoffe (entsprechend Spannungen) benutzt. Zudem scheint es so aufgebaut zu sein, dass es nur AUSSORTIERER-Neuronen gibt. Deswegen die Von-Neumann-Architektur irgendwo völlig fehl am Platz ... man bräuchte einen Prozessor pro Aussortierer - man kann von 40Mrd ausgehen ... schöne Zahl! Vielleicht schaffen wir das Gehirn nachzuahmen, nachdem wir entsprechend viele kleine ARMs zusammengeschaltet haben. Vier hängt allerdings wieder die Verknüpfung voneinander ab, wie schlau das Endprodukt wird. ;D

Und speichern im Gehirn: es gibt keinen RAM und keine Register ... die Signale Rotieren von Neuron zu Neuron und werden immer dann verstärkt, wenn die Signale BEKANNT sind. heißt für einen Menschen, bei dem das Gehirn keine Stoffe zum weitertransport der Signale bekommt, dass die Rotation verendet und der Mensch sowie hirntot wie auch ohne Erinnerung ist. Eine weitere Vermutung zum Thema Koma lass ich hier mal aus ;D

Ist auch gut so. Selbst wenn die Testautos heute schon tausende Kilometer fehlerfrei schaffen, ja viel fehlerfreier als der Mensch, so kann immer noch irgendwo im Programm eine falsche Reaktion vorprogrammiert sein, wenn ein unvorhersehbares Ereignis eintritt. Ich erinnere mich ans Airbus Unglück in Warschau. Hmmm.
Am schlimmsten finde ich die falschen Reaktionen mancher Autofahrer, da würde ich als KI-Auto auch durchdrehen :D
 
Was die Rechenleistung angeht... Naja, hat jemand schon mal ausgemessen, wie viele Teraflops das Gehirn kann?^^

Also ein normales menschliches Hirn bringt es immerhin auf ca. 20 Teraflops soweit ich weiß. Ich glaube, ein Superrechner, der dieses Jahr fertiggestellt werden soll, soll es auch auf rund 20 Teraflops bringen. Also wäre so eine Leistung 2019 in einem PC mit 8nm-Fertigung bestimmt möglich oder eben auf einer Grafikkarte mit 10nm oder 7nm.

Das Problem ist aber, dass ein Rechner feste Gleichungen zu lösen hat und sich nie verändert, außer dasss er dann nnicht mehr funktioniert. Der wesentliche Unterschied zu Tieren und Menschen ist aber, dass wir biologisch sind, i.e., dass wir und im Laufe der Zeit verändern und sich die Verbindungen zwischen bestimmten Synapsen verstärken oder abschwächen können. Deshalb können wir dazulernen und haben wichtigere Dinge, also die, die uns öfter "begegnen", schneller erkennen als andere. Computer rechnen auch nach 10 Jahren immer noch das gleiche.
 
Also ein normales menschliches Hirn bringt es immerhin auf ca. 20 Teraflops soweit ich weiß. Ich glaube, ein Superrechner, der dieses Jahr fertiggestellt werden soll, soll es auch auf rund 20 Teraflops bringen. Also wäre so eine Leistung 2019 in einem PC mit 8nm-Fertigung bestimmt möglich oder eben auf einer Grafikkarte mit 10nm oder 7nm.

Das Problem ist aber, dass ein Rechner feste Gleichungen zu lösen hat und sich nie verändert, außer dasss er dann nnicht mehr funktioniert. Der wesentliche Unterschied zu Tieren und Menschen ist aber, dass wir biologisch sind, i.e., dass wir und im Laufe der Zeit verändern und sich die Verbindungen zwischen bestimmten Synapsen verstärken oder abschwächen können. Deshalb können wir dazulernen und haben wichtigere Dinge, also die, die uns öfter "begegnen", schneller erkennen als andere. Computer rechnen auch nach 10 Jahren immer noch das gleiche.

Das stimmt, und du kannst noch eins draufsetzen. Unser menschliches Netzteil ist 80 Plus Über-Über-Titanium. Unseren geringen Wattverbrauch bekommt kein Superrechner bei gleicher Leistung hin. :D
 
Also:

VIA Chipsätze & nForce 2 400 Ultra:

Mein erstes Board mit Via-Chipsatz war ein Epox mit KT400A Chipsatz. Dieses bekam ich weil das vorige Mainboard (EP-8K7A+ mit AMD 760 Chisatz:devil:) leider defekt war. An beide habe wirklich schöne Erinnerungen :schief:
Waren das noch Zeiten mit meinem geliebten Asus A7N8X Deluxe. Das war mein damals mein erstes Asus Board und im nachhinein das einzige Asus Board was nie irgendwelche Probleme gemacht hatte. Obwohl viele Chipsatztreiberprobleme beklagten, hatte ich nie irgendwelche Probleme. Zuletzt mit nVidia Das Board lebt immer noch, bloß eine passende CPU müsste her.
:hail:RIP EPOX:hail:

Zur Hirnproblematik:

Wie soll sich die Rechenleistung zweier absolut unterschiedlicher System vergleichen? Und wie beziffert man die Rechenleistung des Gehirns?
Das menschliche Gehirn ist ja nicht gänzlich erforscht und vieles stellt die Wissenschaft immer noch vor Rätsel. Auf einem Kubikmillimeter Hirn befinden sich ca. 100.000 Neuronen und
dieses haben ca. jeweils 10.000 Synapsen. Obwohl das nicht mit der Rechenleistung zu tun hat, so sollte man sich auch mal die "Datenengen" vor Augen halten. Das Gehirn speichert alle Eindrücke und erstellt mehr oder minder ein Inhaltsverzeichnis von den wirklich prägenden Erlebnissen, der Rest wandert in das Unterbewusstsein. So das wäre dann mal die Hardware die es grob es zu knacken gibt und im Anschluss bleibt da die Software unsere Gehirns.
Ich bezweifle das in wirklich absehbarer Zeit die Rechenleistung des menschlichen Gehirns erreicht wird und wie wir alle wissen Peak Performance ist nicht alles ;)

@ Mel0ne: Kannst du vielleicht sagen wie sie 20Terraflops des menschlichen Gehirns gemessen haben?

@ crizzler: Unser Hirn braucht 140g Glucose am Tag. Bei 3.74kcal/g macht das ca 530kcal. Ein WürgMac hat ca 500kcal und ich möchte gerne den Computer sehen dem das genügt. Also die Effizienz ist unerreicht :daumen:
 
Zuletzt bearbeitet:
Cool...dass die 8800 GTS 640 MB in meinem Rechner ihren Dienst verrichtet hat, ist noch gar net soo lange her! Hab sie glaub ich erst 2011 oder Ende 2010 ausgetauscht! War ne gute Karte!
 
Aus diesem direkten Serie von NV hatte ich nur :

[FONT=Times New Roman, serif]8800 Ultra
[/FONT]
[FONT=Times New Roman, serif]8800 GTS 320MB
[/FONT]


[FONT=Times New Roman, serif]Die Ultra[/FONT] war schon übel im Vergleich zur ATI 1900XTX und später zur HD 3870; nicht nur in FPS sondern auch in €.
 
Ach ja, die 8800 GTX hat mich lange begleitet. Hatte sie kurz nach dem Release gekauft und erst 2011 durch eine 580 GTX ersetzt. Bisher hat es keine andere Graka solange bei mir ausgehalten.
 
Hi,

wenn man bedenkt das alleine für die Zustände Low und High also um 2 Möglichkeiten anzuzeigen bedarf es schon 3 Spannungszustände... was ja nicht sehr effektiv ist und für "mich" beweist das die Null ein Fehler im System ist..

Zahlen sind Teilbar.. :-)

Dies Zeigt auch deutlich das ein System von "außen" geregelt bzw. Programmiert wird... und ein Gehirn nicht mit Bewusstsein bzw. Geist verwechselt werden sollte... Will sagen das auch innere Systemreglung von "außen" kamen.. oder kommen.

Ein PC kann das Wissen der Gesamten Menschheit speichern und mittels KI auch verarbeiten... Nur verstehen kann der Nix oder doch?
Jedenfalls kann dann ein PC oder ein Mensch nicht beweisen, das der gegenüber wirklich ein Bewusstsein hat oder nicht doch einer KI gegenübersteht ;-)

Naja vielleicht werdet ihr Merken das ihr nur Biologische Programme seit in einem Spiel das sich Leben nennt (Ein Sim* Spiel für höhere Intelligente Wesen..) wo die Spielfiguren jetzt selbst in ihrer Simulation Rechner bauen und selber Spiele spielen um in die Virtuelle Welt abzutauchen. Also Virtuelle Programme programmieren Virtuelle Programme oder Nutzen diese usw..

Da Energie niemals vergeht und Geist für mich ein Form von Energie ist... Deshalb kann ja Gehirn und Geist nicht das selbe sein...
weil das Gehirn und der Köper ja Energie braucht... Es gibt Experimente da fummelt man im Gehirn rum und kann dann bestimmen das die Zielperson ZB.den Arm heben soll, bevor diese gedacht hat dies zu tun .. Das auch gleich zum Thema "Determinismus"
Sehr Interessant...

War es jetzt die Rote oder Blaue..?



Hiiilfeeeee neinnnnn ich bin von Programmmmmmmmmmen umgeben.... :-)


Gruß
 
Zuletzt bearbeitet:
Mir war damals meine 7800GTX abgeraucht und wurde dann entsprechend durch eine 8800GTX (die mir zwar auch nach nich ganz 2 Jahren den Geist aufgab) ersetzt. Trotz relativ kurzen Lebens der Graka werd ich auch heute noch nostalgisch, wenn ich eins dieser G80-Monster in Händen halte.
 
Ich bin dafür, dass wir (Menschen) uns VOR der Entwicklung der KI erstmal Gedanken darüber machen sollten, wie wir künstliche Intelligenzen behandeln wollen.
Meiner Meinung nach würden Szenarien wie in Matrix, oder Terminator nicht eintreten, wenn man die KIs als mehr oder weniger gleichberechtigte Wesen ansieht und auch so behandelt. Und man muss ihnen natürlich die 3 Gesetze der Robotik so tief und unveränderbar einprogrammieren, dass diese unter keinen Umständen umgangen werden können.
Denn eine echte KI wird auf jeden Fall mächtiger sein, als die Leute, die sie erschaffen haben.


Hallo,

"wirkliche" Intelligenz ist auch gleichzeitig fähig zur Vernunft... Das Problem mit dem wie wollen "wir" Intelligenz behandeln halte ich schon für sehr gefährlich... denn wenn Intelligenz und Vernunft zutreffen soll und man es mit der Politik vergleicht...
Muss ich leider sagen da kaum Intelligenz in der Politik vertreten ist und über Vernunft... mag ich erst gar nicht sprechen.. :-(

Ein Vorteil hat KI ... Sie kann unbestechlich sein... Aber dafür verliert man mehr als man denkt...

Gruß
 
Das stimmt so nicht. Auch wenn man die Anzahl der Sterne nur schätzen kann so geht man davon aus, dass eine Galaxie 100 Milliarden und mehr Sterne hat und das Universum knapp über 100 Milliarden Galaxien. Das Gehirn hat etwa 100 Billionen Synapsen (= 100 Milliarden * 1000), es gibt also mehr Sterne als Synapsen in deinem Hirn^^. Knapp ne Millionen mal so viele.
Und die Weltherrschaft übernehmen werden die auch nicht aus dem einfachen Grund, dass erstmal die passende KI entwickelt werden muss und für die gibt es einfach keinen Bedarf und es wäre enorm aufwendig eine solch komplexe KI zu programmieren.

Hi, die Witzige Schätzungen der Sterne bei einem Unendlichen "Raum" sind wirklich sehr Amüsant... Grund in einem Unendlichen Universum haben unendlich mal so viele Sterne Platz bzw können sein... und das auch noch in unterschiedlichen Dimensionen
die voneinander getrennt sein könnten und trotzdem den Selben Raum beanspruchen den Unendlichen! Man könnte das vergleichen wie Radiowellen im selben Raum und doch verschieden...und unabhängig von einander...

vielleicht sind ja die schwarzen Löcher die Verbindungslinien ;-)

Und was den Bedarf an Weltherrschaft anbelangt... Der ist leider bei vielen Politiker gegeben...:-(
Gruß
 
Wenn wir es wirklich schaffen sollte einen Computer zu bauen der lernt, versteht und Entscheidungen auf Basis logischer zusammenhänge trifft, ist die menschliche Rasse irrelevant..
 
2015 ist immer noch kurz genug nach der Jahrtausenwende und erste Fahrzeuge dürfen ab diesem Jahr selbstständig fahrend auf deutsche Autobahnen. Sind zwar nur Tests aber die Vorhersage war ja nicht, dass jeder so ein Auto fährt ^^

Aktuelleren Vorhersagen nach werden 2018 erste Computer in der Lage sein, menschliches Denken zu simulieren und dabei ähnliche Leistungen zu erreichen. Natürlich sind die etwas teurer als 1000 Dollar aber andererseits fehlt dort noch die Wertkorrektur des Dollars von 1948 gegenüber heute... ok, reicht trotzdem nicht aus um sich einen Supercomputer zu kaufen aber Schuld könnte hier der Mangel an Konkurrenz in dem Segment sein. Ohne Konkurrenz stagnierende Weiterentwicklung, wie kann man sonst erklären, dass die Leistung der Prozessoren sich über Jahre hinweg stetig vervielfacht hat, aber in den letzen 5 Jahren insgesamt kaum über 50% Mehrleistung zustande kamen...
Selbst vor 10 Jahren ging man noch von einer deutlich schnelleren Entwicklung aus. Nach damaligem Verständnis wäre ein Nanocomputer nicht nur ein Raspberry Pi gewesen, sondern ein System mit der Leistung eines damaligen Supercomputers auf der Fläche einer Kreditkarte.

Und im Bereich Spracherkennung tut sich auch einiges. Windows 10´s Cortana ist ein weiterer Schritt in diese Richtung.

Letztendlich kann man heutzutage nur darüber streiten was "kurz nach 2000" genau heißt, vielleicht hatte er ja doch Recht? ^^
 
Zuletzt bearbeitet:
Hat überhaupt jemand den KT 600 Chipsatz gekauft?
Ich glaube meine meisten meiner AMD K7 Mainbaords hatten entweder Nforce 2(A7N8x) oder SiS Chipsatz (K7S5A).
Davor vielleicht noch VIA KT133 und KT400a. Aber keinen KT600.

Geforce 8 ist an mir vorbei gegangen. War damals schon im Lager von ATI/AMD.
Habe aber noch eine GTS9800 liegen aus einem Alt PC eines Kumpels. Wartet noch auf Einbau nach Lüfterumbau (der alte ist einfach nur laut ohne Lüftersteuerung).
 
Zurück