Wie ich sagte, unter optimalen Bedingungen, sprich Flachland. Das haste zumindest in meiner Gegend selten, bzw. gar nicht.
Und das zeigt doch, wie treffend der Vergleich doch war.
Auch der Cell hat seine optimalen Bedingungen, in denen er seine Leistung fast voll ausfahren kann. Woanders dagegen nicht. Da waren/sind halt herkömmliche CPUs oder GPUs doch besser geeignet.
Also doch die Nummer von wegen „Leg Du mal wieder alles auf den Tisch“. Mein Wort zählt ja so wie es ist. Du kannst die Suchfunktion genauso nutzen wie ich...hoffe ich doch. Dann wirst Du sicher darauf stoßen.
Da ich aus meiner Perspektive nie ausfällig geworden bin, kann ich gar nichts finden. Es war deine Behauptung, ergo bist du in der Bringschuld.
Au weia! Ich empfehle dringend einen Besuch beim Neurologen und ein HirnCT.
Ja, Au weia.
Wer wird jetzt her persönlich.
Ist bei RavionHD offenbar nicht anders, ergo beweist das gar nichts.
Aha, ich glaube ich erkenne langsam, wo der Hund begraben liegt.
Was ich schon früher vermutet habe; du kommst offenkdundig nicht mit gewissen Gegebenheiten in Interenforen zurecht.
So oft ich selber schon mit Ravion im Clinch lag, so ist er doch nie persönlich oder beleidigend geworden. Allerdings ist er - nicht von mir, vielleicht auch nicht von dir konkret, aber sehr wohl von anderen Usern - öfters mal derbe angeredet worden. Aber ist er deswegen jemals aus der Haut gefahren? Nicht das ich wüsste. Es ist manchmal zum Haare raufen mit mit seinem reaktionärem, manchmal auch stark einseitigem Gehabe aber ich kann meiner Erfahrung nach nicht behaupten, dass er schon mal persönlich geworden wäre.
Dass man in Foren öfters mal neckisch wird, ist Standard - eine konkrete Beleidigung ist aber was völlig anderes. Z.B. dein Zitat oben.
Nein! Für Deine Impertinenz.
Meine "Impertinenz" beruht nur auf technische Fakten, die du genauso überall anderswo nachlesen und nachvollziehen kannst. Es haben schon andere User hier lange vor mir dasselbe Geschrieben, die PCGH brachte Fachartikel drüber. Nur das gebe ich wieder. Nicht mehr nicht weniger. Aber wie hast du das vorhin mal abgetan? Ich glaube mich zu entsinnen, es war ein Wort aus der Fäkalsprache.
Und es gibt Schnittmengen...nicht alle, aber auch ITler sind eben nur Menschen.
Es ist so: Es geht in der IT immer um das Lösen von Problemen. Das gilt insbesondere für Programmierer. Es gibt ein konkretes Problem, das mit einem Algorithmus gelöst werden muss.
Natürlich sind ITler auch nur Menschen.
Wird das Problem durch die vorhandene Plattform aber erschwert, ist das halt nicht grade von Vorteil für einen Problemlöser. Der Handwerker findet das auch nicht toll, wenn er mit der Handsäge ein Brett zuschneiden muss, obwohl er das besser mit der Tischkreissäge könnte. Ist übrigens eine sehr treffende Analogie zum Thema "Abstrakte Programmiersprache vs. Assembler".
Und RISCs hatten weniger Befehlsätze genau wofür?
Und wenn das alles nicht drin wäre, von den noch schwereren Schutzmaßnahmen (Airbag, Seitenaufprallschutz, etc.) ganz zu schweigen könnten die Autos bei gleicher Motorleistung schneller beschleunigen, bzw. hätten eine höhere Endgeschwindigkeit und würden bei normaler Fahrweise im Verhältnis deutlich weniger verbrauchen, weil das Verhältnis von Leistung zu Gewicht günstiger wäre. Moment, was waren nochmal die Stärken des RISC?
Also eigentlich spricht man heutzutage nicht mehr von RISC und CISC. Die Grenzen sind inzwischen dermaßen verschwommen, dass man nicht immer konkret von einem der beiden Philosophien sprechen kannt.
Es ist z.B. schon lange so, dass auch x86-CPUs größere Befehle in kleinere RISC-Befehle splitten (so genannte Mikro-Operationen) und haben durch spezielle Befehlssatzerweiterungen eigene Register, die schon einige Nachteile der grundsätzlichen CISC-Idee kaschieren.
Umgekehrt gibt es auch RISC-Prozessoren, die mit relativ komplexen Befehlen arbeiten.
Ein Vorteil reiner RISC-Architekturen war ja, dass man sich viele Transistoren hat sparen können. Nur mal rhetorisch gefragt: Braucht man das heutzutage noch? Wir können mit Transistoren praktisch um uns schmeißen und Befehle auch auf CISC-Prozessoren bis in kleinste Untergruppen in den Registern aufdröseln.
Und früher ging das Autofahren auch ohne den Krimskrams, und ohne dass die Leute ne Rennfahrerausbildung hatten. Nur gibt es heute genug Leute im Straßenverkehr, die ein Kfz führen, bzw. die Fahrerlaubnis besitzen ohne wirklich geeignet zu sein. Die Fahrschulen selektieren schlicht nicht mehr, weil da ja auch Geld dranhängt...und die Konkurrenz nicht schläft.
Dass Airbags, Antiblockiersysteme, Anti-Schlupfregelung usw. eingeführt wurden, um Idioten, die sich und andere im Verkehr gefährden, das Fahren zu erleichtern höre ich hier zum ersten mal. Zumindest zähle ich vornehmlich Poser, Möchtegern-Rennfahrer und Besoffene dazu. Aber für die wurden solche Systeme sicherlich nicht geschaffen.
Das erinnert mich ein wenig an gewisse Leute, die behaupten Automatik fahren sei was für Waschlappen.
Nochmal, schlechtes Beispiel. Zumal die Krankenpflege für das was sie leistet und für die Verantwortung, die sie haben effektiv noch mieser bezahlt werden.
Innerhalb ihres beruflichen Feldes, ja.
Daher, nochmal, treffendes Beispiel: Gelobt werden immer die Ärzte, wenn sie ihre Arbeit richtig machen. An die Pfleger denkt niemand, auch niemand an den Knochenjob, den sie verrichten müssen, für viel zu wenig Gehalt.
Du hackst auf den Codern rum, wenn sie es nicht schaffen, Software auf einen bestimmten, schwer zu händelnden Chip so zuzuschneiden, dass er vollends befriedigende Ergebnisse liefert. Dabei lässt du genauso den Knochenjob der Programmierer außer Acht, für den sie innerhalb ihres Berufsfeldes ebenfalls zu wenig Geld kriegen.
Kommt ein Spiel verbuggt oder unfertig auf den Markt, heißt es dann immer: "Schlampig programmiert!". Natürlich schlampig programmiert, aber lag es wirklich an der Unfähigkeit der Coder oder an nicht einzuhaltende Vorgaben von Publishern oder Lead-Designern? Ich verweise nur auf LA: Noire, VTM: Bloodlines, Gothic 3 oder KoTOR2, neben vielen weiteren Beispielen. Die reinste Programmierhölle, z.T. gescheitert an den eigenen Ambitionen, weil sich die Designer verrannt haben, zum anderen an nicht sinnvoll einhaltbaren Vorgaben des Verlegers.
Genauso ist es pure Spekulation, dass ein Cell in der ganzen Zeit keine Evolutionen erlebt hätte, die ihn heute in irgendeiner Art hervorstechen lassen würde.
Wie sich der Cell weiterentwickelt hätte, kann ich ebenso wenig beurteilen wie du.
Aber sich sehe, wie sich GPUs in der Zeit entwickelt haben. Raytracing-Versuche gab's schon zur Zeit der Radeon 9000er. ATi brachte das Thema für PC-Grafikkarten erstmals auf. Ein kleiner Haufen Studenten haben das dann mal wenig später mit einer GeForce 6800 GT versucht, umständlich über die Pixel-Shader berechnet, ohne unterstützende Schnittstelle oder Bibliotheken, mit mäßigen Ergebnissen.
Seit OpenCL/DirectCompute und DirectX10 gibt es aber extra Schnittstellen dafür, inzwischen sogar mit extra ALUs, siehe GeForce RTX.
Grade Nvidia hat im Bereich GPGPU so viel auf die Beine gestellt in den letzten zehn Jahren, dass ich heutzutage die Sinnhaftigkeit eines Spezial-Chips, wie den Cell, nunmal ernsthaft anzweifle.