News [Quanten-Computern] IBM mit großen Fortschritten

PCGH-Redaktion

Kommentar-System
Teammitglied
[Quanten-Computern] IBM mit großen Fortschritten

Jetzt ist Ihre Meinung zu [Quanten-Computern] IBM mit großen Fortschritten gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: [Quanten-Computern] IBM mit großen Fortschritten
 
[Quanten-Computern] IBM mit großen Fortschritten

bei der fehler behebung ist auch noch die frage wieviel Leistung verschwendet werden muss um ein normales ergebnis zu bekommen. bringt ja nichts wenn 10% aufgaben und 90% fehlerbehebung angewendet werden muss.
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

Die Forschung steht ja noch relativ weit am Anfang. Mein Gefühl sagt mir, dass sich die Menschheit selbst zerstört hat, bevor sie Quantencomputer wirklich nutzen kann^^
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

Jetzt mal mal den Teufel nicht an die Wand :ugly: Klink.

Ich glaube die Zeit bis zu weiteren Meilensteinen verkürzt sich nicht linear, sondern exponentiell, bis endlich ein 80286er auf Quantenbasis den Bulldozer3 um Längen schlägt, dauerts noch ein paar Monde :-P.
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

bei der fehler behebung ist auch noch die frage wieviel Leistung verschwendet werden muss um ein normales ergebnis zu bekommen. bringt ja nichts wenn 10% aufgaben und 90% fehlerbehebung angewendet werden muss.

Zumal offensichtlich keines der Systeme Kohärenzzeiten aufweist, mit denen man Qubits auch speichern könnte. Was aber nützt einem die Möglichkeit, enorme Mengen an Ergebnissen zu errechnen (bei denen bis heute afaik niemand auch nur den Hauch einer Idee hat, wie man sie denn eigentlich auswerten soll...), wenn sämtliche Caches,... in herkömmlicher Technik ausgeführt sind, somit ständige Konvertierungen erfordern und insgesamt einen riesigen Klotz am Bein darstellen?
Wenn die Entwicklung weiterhin an so basalen Elementen krankt, dauert es wohl Jahrzehnte bis zum ersten funktionierenden Quanten-Rechensystem. Und dann dauert es noch einmal solange, bis es das ganze auch mit einer Rechenleistung auf dem Niveau konventioneller Systeme zu vergleichbaren Preisen gibt.
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

wenn es hier um die zunehmende verkleinerung von computerkomponenten geht - gute ansetze aber erst umsetzbar und massentauglich, wenn diese chips mein beatmungsgerät im pflegeheim steuern (ich bin 27)...
ich habe da andere ideen, was eine schnellere berechnung mit aktuellen techniken angeht. leider bezahlt niemand für ideen und für patentanmeldungen fehlt mir wiederum das fachwissen.
wie gerne würd ich mich mit einem entwickler bei ibm, intel oder amd über die ideen diskutieren und die meinung der fachwelt zur machbarkeit und zum nutzen erfahren.

das rad wurde nie "neu erfunden", nur verbessert... bei der computertechnik geht es teilweise ähnlich und "alte techniken" halten sich oft länger in aktuellen standards der industrie als mir lieb ist.
ich war immerschon der meinung, dass 32bit-betriebssysteme schon mit windows vista hätten sterben müssen.
warum unterstützen aktuelle mainboards oft noch disketten-laufwerke, obwohl kaum eine aktuelle treibersoftware auf 1,44mb reduzierbar ist?
wieso haben grafikkarten mit 1gb oder mehr oft eine speicheranbindung von der größe eines "stecknadelkopfes"...

es sollte der leitsatz gelten: die hardware diktiert die software!
ich will:
- eine cpu, die NUR AB 64Bit aufwärts arbeitet... am besten 256bit oder MEHR!!!
- eine cpu brauch cache... dann ram und dann noch eine festplatte... die daten zur berechnung stammen von der festplatte und diese stellt das langsamste speichermedium im computer dar. hier ansetzen und die geschwindigkeit auf "cache-niveau" steigern und es wird eine weitere performance-bremse gelöst. gibt es schon mit ssd's? ...ok, nochmal anders ausgedrückt - ram und hd müssen langfristig zu einem medium verschmelzen. kürzere wege, zeitersparnis... die cpu rechnet im prinzip auf der hd. das ist mein ansatz... think about it!
- grafikkarten von der größe eines HALBEN MAINBOARDS??? NO GO!!! das mainboard ansich könnte man umstrukturieren, die grafik"karte" indem sinne abschaffen. ansetze mit der gpu in der cpu (amd) sind gut und der richtige weg. auch wenn das viele grafikkarten-hersteller sicherlich nicht gut heißen. aber ein zusätzlicher gpu-sockel wäre eine möglichkeit um die flugzeugträger-großen bollwerke abzuschaffen. die industrie müsste aber näher zusammen rücken, da mainboard- und grafikkarten-hersteller zusammen arbeiten sollten. das wiederum konzentriert fachwissen und bringt die entwicklung schneller voran. das "onboard-prinzip" kennen wir bereits aber hier wäre die möglichkeit eines upgrades gegeben und DAS würden verdammt viele kunden toll finden.

ABER es geht ja nur um's liebe geld und solche neuentwicklungen schlucken milliarden bis zu ihrer markteinführung. ich sollte aber wirklich mal mein konzept zu papier bringen und aufs patentamt dackeln. vielleicht werd ich mit 106 jahren noch reich, weil amd oder intel auf die selbe "idee" gekommen sind... HAHA :devil:
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

wenn es hier um die zunehmende verkleinerung von computerkomponenten geht - gute ansetze aber erst umsetzbar und massentauglich, wenn diese chips mein beatmungsgerät im pflegeheim steuern (ich bin 27)...
ich habe da andere ideen, was eine schnellere berechnung mit aktuellen techniken angeht. leider bezahlt niemand für ideen und für patentanmeldungen fehlt mir wiederum das fachwissen.
wie gerne würd ich mich mit einem entwickler bei ibm, intel oder amd über die ideen diskutieren und die meinung der fachwelt zur machbarkeit und zum nutzen erfahren.

das rad wurde nie "neu erfunden", nur verbessert... bei der computertechnik geht es teilweise ähnlich und "alte techniken" halten sich oft länger in aktuellen standards der industrie als mir lieb ist.
ich war immerschon der meinung, dass 32bit-betriebssysteme schon mit windows vista hätten sterben müssen.
warum unterstützen aktuelle mainboards oft noch disketten-laufwerke, obwohl kaum eine aktuelle treibersoftware auf 1,44mb reduzierbar ist?
wieso haben grafikkarten mit 1gb oder mehr oft eine speicheranbindung von der größe eines "stecknadelkopfes"...

es sollte der leitsatz gelten: die hardware diktiert die software!
ich will:
- eine cpu, die NUR AB 64Bit aufwärts arbeitet... am besten 256bit oder MEHR!!!
- eine cpu brauch cache... dann ram und dann noch eine festplatte... die daten zur berechnung stammen von der festplatte und diese stellt das langsamste speichermedium im computer dar. hier ansetzen und die geschwindigkeit auf "cache-niveau" steigern und es wird eine weitere performance-bremse gelöst. gibt es schon mit ssd's? ...ok, nochmal anders ausgedrückt - ram und hd müssen langfristig zu einem medium verschmelzen. kürzere wege, zeitersparnis... die cpu rechnet im prinzip auf der hd. das ist mein ansatz... think about it!
- grafikkarten von der größe eines HALBEN MAINBOARDS??? NO GO!!! das mainboard ansich könnte man umstrukturieren, die grafik"karte" indem sinne abschaffen. ansetze mit der gpu in der cpu (amd) sind gut und der richtige weg. auch wenn das viele grafikkarten-hersteller sicherlich nicht gut heißen. aber ein zusätzlicher gpu-sockel wäre eine möglichkeit um die flugzeugträger-großen bollwerke abzuschaffen. die industrie müsste aber näher zusammen rücken, da mainboard- und grafikkarten-hersteller zusammen arbeiten sollten. das wiederum konzentriert fachwissen und bringt die entwicklung schneller voran. das "onboard-prinzip" kennen wir bereits aber hier wäre die möglichkeit eines upgrades gegeben und DAS würden verdammt viele kunden toll finden.

ABER es geht ja nur um's liebe geld und solche neuentwicklungen schlucken milliarden bis zu ihrer markteinführung. ich sollte aber wirklich mal mein konzept zu papier bringen und aufs patentamt dackeln. vielleicht werd ich mit 106 jahren noch reich, weil amd oder intel auf die selbe "idee" gekommen sind... HAHA :devil:

...nicht schlecht für nen Kabelverknoter.
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

ich war immerschon der meinung, dass 32bit-betriebssysteme schon mit windows vista hätten sterben müssen.

Damals war die Zeit definitiv noch nicht reif dafür

wieso haben grafikkarten mit 1gb oder mehr oft eine speicheranbindung von der größe eines "stecknadelkopfes"...

Haben sie die?

Okay, einige Notebook und Low-End (v.A. OEM) GraKas sicher aber bei den meisten GraKas ist die Speicherbandbreite durchaus angemessen

warum unterstützen aktuelle mainboards oft noch disketten-laufwerke, obwohl kaum eine aktuelle treibersoftware auf 1,44mb reduzierbar ist?

Nutzt nix, schad't nix

- eine cpu, die NUR AB 64Bit aufwärts arbeitet... am besten 256bit oder MEHR!!!

Was genau erhoffst du dir davon?

Man kann mit größeren Zahlen in einem Taktzyklus rechnen... schön... aber das ist nur selten wirklich nötig

- eine cpu brauch cache... dann ram und dann noch eine festplatte... die daten zur berechnung stammen von der festplatte und diese stellt das langsamste speichermedium im computer dar. hier ansetzen und die geschwindigkeit auf "cache-niveau" steigern und es wird eine weitere performance-bremse gelöst. gibt es schon mit ssd's? ...ok, nochmal anders ausgedrückt - ram und hd müssen langfristig zu einem medium verschmelzen. kürzere wege, zeitersparnis... die cpu rechnet im prinzip auf der hd. das ist mein ansatz... think about it!

Wenn der RAM ausreichend groß ist limitiert die Festplatte nur beim Öffnen von Programmen oder wenn laufend neue Datenmengen nachgeladen werden müssen, etwa bei Ver-und Entschlüssellung, die tatsächlich oft HDD limitiert ist

In Rechnersystemen, in denen die Festplatte stark limitiert arbeitet man eben und das schon heute mit hochgeschwindigkeits SSDs oder gleich mit sehr großen RAM Mengen

- grafikkarten von der größe eines HALBEN MAINBOARDS??? NO GO!!! das mainboard ansich könnte man umstrukturieren, die grafik"karte" indem sinne abschaffen. ansetze mit der gpu in der cpu (amd) sind gut und der richtige weg. auch wenn das viele grafikkarten-hersteller sicherlich nicht gut heißen. aber ein zusätzlicher gpu-sockel wäre eine möglichkeit um die flugzeugträger-großen bollwerke abzuschaffen. die industrie müsste aber näher zusammen rücken, da mainboard- und grafikkarten-hersteller zusammen arbeiten sollten. das wiederum konzentriert fachwissen und bringt die entwicklung schneller voran. das "onboard-prinzip" kennen wir bereits aber hier wäre die möglichkeit eines upgrades gegeben und DAS würden verdammt viele kunden toll finden.

An einer höheren Integration und insbesondere einer Integration von Grafikkarten in den CPU arbeitet man bekanntlich schon heute.

Keine Grafikkarten mehr zu verwenden sondern die GPUs auf einem eigenen Sockel direkt ins Mainboard zu integrieren ist in der Praxis nicht so einfach, der Stromverbrauch der verschiedenen GPUs und ihre Speicheranbindung unterscheidet sich einfach zu stark- und das gilt nicht nur für GPUs verschiedener Hersteller sondern vor allem für verschiedene Leistungsklassen

Aber warte noch 20 Jahre und du wirst in einem modernen PC wahrscheinlich keine dezidierte GraKa mehr finden
 
Superwip schrieb:
Damals war die Zeit definitiv noch nicht reif dafür

Haben sie die?

Okay, einige Notebook und Low-End (v.A. OEM) GraKas sicher aber bei den meisten GraKas ist die Speicherbandbreite durchaus angemessen

Nutzt nix, schad't nix

Was genau erhoffst du dir davon?

Man kann mit größeren Zahlen in einem Taktzyklus rechnen... schön... aber das ist nur selten wirklich nötig

Wenn der RAM ausreichend groß ist limitiert die Festplatte nur beim Öffnen von Programmen oder wenn laufend neue Datenmengen nachgeladen werden müssen, etwa bei Ver-und Entschlüssellung, die tatsächlich oft HDD limitiert ist

In Rechnersystemen, in denen die Festplatte stark limitiert arbeitet man eben und das schon heute mit hochgeschwindigkeits SSDs oder gleich mit sehr großen RAM Mengen

An einer höheren Integration und insbesondere einer Integration von Grafikkarten in den CPU arbeitet man bekanntlich schon heute.

Keine Grafikkarten mehr zu verwenden sondern die GPUs auf einem eigenen Sockel direkt ins Mainboard zu integrieren ist in der Praxis nicht so einfach, der Stromverbrauch der verschiedenen GPUs und ihre Speicheranbindung unterscheidet sich einfach zu stark- und das gilt nicht nur für GPUs verschiedener Hersteller sondern vor allem für verschiedene Leistungsklassen

Aber warte noch 20 Jahre und du wirst in einem modernen PC wahrscheinlich keine dezidierte GraKa mehr finden

Statt mit größeren Zahlen zu rechnen könnte man auch mit mehreren kurzen Zahlen gleichzeitig rechnen ;)
Die ded. GPUs werden mMn noch ne Weile überleben, ist ja doch ganz praktisch die Hardware an die eigenen Bedürfnisse anpassen zu können.
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

Nutzt nix, schad't nix

Nützt immer dann was, wenn man mal Daten auf was altes schaufeln muss oder schnell ein sonst leeres Bootmedium will :)


Statt mit größeren Zahlen zu rechnen könnte man auch mit mehreren kurzen Zahlen gleichzeitig rechnen ;)

Das ist Programmtechnisch vergleichsweise aufwendig und oftmals gar nicht möglich. Wenn du viele Entscheidungen mit einer klar begrenzten Zahl an möglichen Ausgängen hast (z.B. "ja/nein"), die unabhängig bearbeitet werden müssen, dann ist das halt so. Nicht umsonst verbaut AMD beim Bulldozer extra zwei kleine Integereinheiten pro Kern, aber nur eine halbe 256 Bit Einheit. (ja, ich weiß, der ist nicht das beste Beispiel für Hochleistung :ugly: )


Und damit mal langsam zurück zum Thema Quantencomputer. Die haben mit primitiven Gigantomanismus ala "ich will alles vier mal so groß und zehnmal so schnell. das wäre ein tolles System" nämlich arg wenig zu tun.
 
ruyven_macaran schrieb:
Nützt immer dann was, wenn man mal Daten auf was altes schaufeln muss oder schnell ein sonst leeres Bootmedium will :)

Das ist Programmtechnisch vergleichsweise aufwendig und oftmals gar nicht möglich. Wenn du viele Entscheidungen mit einer klar begrenzten Zahl an möglichen Ausgängen hast (z.B. "ja/nein"), die unabhängig bearbeitet werden müssen, dann ist das halt so. Nicht umsonst verbaut AMD beim Bulldozer extra zwei kleine Integereinheiten pro Kern, aber nur eine halbe 256 Bit Einheit. (ja, ich weiß, der ist nicht das beste Beispiel für Hochleistung :ugly: )

Und damit mal langsam zurück zum Thema Quantencomputer. Die haben mit primitiven Gigantomanismus ala "ich will alles vier mal so groß und zehnmal so schnell. das wäre ein tolles System" nämlich arg wenig zu tun.
Naja, im Moment freut man sich halt darüber, dass irgendjemand etwas in der Richtung gebaut hat. Da bleibt nicht viel Platz für Gigantomanismus ;)
 
AW: [Quanten-Computern] IBM mit großen Fortschritten

Diskettenlaufwerke sind für den Heim betrieb absurd, aber für diverse Maschienen welche nicht immer aus den 80igern stammen, technisch aber auf diesem Niveau sind, pflicht... Klar sollt man meinen, dass es usb flash speicher auch tuen sollte, aber die Industrie, gerade im Mittelstand, aktualisiert ihre Maschinen Bestände oft sehr sehr selten. Manche Programme sind da nur wenige K-Byte groß....
Und ja neue , bestimmt günstigere Systeme bedeuten aber dennoch Neuanschaffungen - never change a running System....und so...
 
Zurück