Ich hatte bereits mehrfach Linux im Einsatz und die GUI von Windows fühlt sich MEIST einfach intuitiver an. Meine persönliche Meinung...
Es kommt auch ein wenig auf die Distribution an, openSUSE lässt sich meiner Meinung nach sehr einfach bedienen, aber selbst wenn man nicht damit klarkommt, kann man die GUI bei Linux immernoch austauschen, Microsoft sieht bei sowas natürlich den eigenen Wiedererkennungswert gefährdet.
Ich nutze Windows seit 1997 und habe noch nie von in der Gegend verschobenen Treiber-Dateien gehört und bisher war bei mir nur Linux zu blöd ein Update zu installieren.
Viele Registry-Einträge sollte man einfach so lassen, da Programme wie TuneUp oft zu großzügig löschen...
XP musste man nicht zwingend defragmentieren, das hat sich einfach selbst zugemüllt. Seit ich Windows Vista nutzte, hatte ich keine derartigen Probleme mehr. Die Betriebssysteme von MS sind seit dem sehr stabil und so oft erscheinen Updates ja auch wieder nicht. Windows 7 hat bei mir mit SSD auch nach 2 Jahren noch flink reagiert und Windows 8.1 startet in 4 Sekunden.
XP hat aus Gründen die niemanden wirklich bekannt sind, die Treiberdateien nach der Installation auf der Systemplatte gerne verschoben weshalb man nach jeder Treiberinstallation diese am besten gleich nach dem Neustart noch mit defragmentieren sollte.
Windows war schon öfter zu doof, Updates zu installieren, habe ich auch schon bei Windows 7 gesehen, mal einen Tag lang an einem simplen Sicherheitsupdate ruminstalliert, was nach einem Neustart gleich wieder von vorne losging. Völlig unzumutbar fand ich aber immer, dass man gleich das System neustarten musste (egal ob was parallel dazu gelaufen ist oder nicht), wobei es wurscht war, ob das jetzt ein umfangreiches Service-Pack oder ein paar kleine Tools waren. Das hat sich auch erst mit Windows 8 richtig gebessert. Und die Registry-Fehler gingen bei mir manchmal so weit, dass ich einzelne Programme gar nicht mehr installieren bzw. starten konnte, weil irgend ein Bit in einem Installer-Programm falsch gesetzt war. Von XP und 7 weiß ich, dass beide nach löschen der falschen Werte durchaus schneller und stabiler laufen, oft nützt es nichts, einfach nur die ganzen Schrott-Dateien zu löschen.
Das ganze Prozedere hat man nunmal auch nach richtiger (!) Installation des OS. Ich früher als 14/15-jähriger Laie habe XP Prof und Home einfach so installiert, das lief auch eine Zeit lang gut, bis irgendwann alles, trotz regelmäßiger Defragmentation und Müll-Datenlöschung, alles immer unperformanter und instabiler wurde. Später hab ich dann gelernt, wie's richtig geht und Windows komplett neu installiert, mit entsprechender Partitionierung und Anlegen eines Temp-Ordners, etc. dann funktionierte das ganze auch besser nur um dann später wieder rumzulahmen. Viren o.ä. konnte ich bei mir schon immer ausschließen, da immer alle Updates + aktivierte Firewall und Virenschutz sowie der Tatsache, dass ich mich nie auf entsprechenden Seiten rumgetrieben habe, wo man sich sowas schnell einfachen kann.
Dass der XP-Kernel sich selber zumüllt ist mir dann auch irgendwann zu Ohren gekommen, was mich heute noch aufregt. Linux auf meinem Laptop dagegen lief in der Zeit genauso gut wie noch am ersten Tag, keine Ahnung woran das liegt, muss halt tatsächlich das bessere OS sein.
Der Vista-Kernel war halt aber nicht viel besser und musste man erst mal richtig konfigurieren, damit Vista auf seinem Rechner performant läuft und das erste Service-Pack abwarten (auf Laptops war das OS absolut grauenhaft).
Erst ab Windows 7 ist das ganze nochmal um ein gutes Stück besser geworden, wobei viele von mir gewünschte, technische Änderungen in Windows erst mit Windows 8 kamen.
Ich verstehe das Argument einfach nicht, dass immer alle User selber schuld sind, selbst die, die schon bei der Installation versuchen, möglichst alles richtig zu machen (also nicht nur auf die Bildschirm-Anweisungen von Windows hört, und das OS "einfach installiert", so wie ich damals).
Höchstens das mit den vielen Bluescreens halte ich für ein Gerücht, das passiert nur Leuten, die sich irgendwelche Malware einfangen oder sich sonst irgendwie dumm anstellen, da wird Windows doch zu Unrecht mit beschuldigt.
Ich nutzte in den 90ern eine Voodoo unter OpenGL, weis also dahingehend bescheid. DirectX wurde gerade in den letzten Jahren viel besser und OpenGL sticht da auch nicht sonderlich hervor, deswegen war Mantle eigentlich ein logischer Schritt. Du spekulierst hier, nicht ich!
Verglichen mit dem fast direkten Hardwarezugriff, dem Programmieren bei Spielekonsolen mögich ist, ist DirectX nunmal sehr indirekt und unperformant. Natürlich kann keiner erwarten, dass das mit DirectX genauso gut funktionieren soll, wie auf der Konsole, was aber nichts an dessen Unzulänglichkeit ändert.
Dass es aber nunmal doch besser geht, hat kürzlich AMD gezeigt, weshalb ich für einen drastischen Umschwung in dieser Angelegenheit wäre. Zu viel rohe Rechenleistung der heutigen Hardware bliebt ungenutzt, da hat man eine teure 500€ Grafikkarte im Rechner und trotzdem sieht die Grafik streng genommen nicht viel besser aus als auf der Konsole.
Entsprechendes Ausreizen dieser Hardware bringt eben dank DirectX hohen Aufwand und Kosten mit sich, während das auf der Konsole, spätestens seit der aktuellen Generation, fast schon spielend leicht geht.
Und wo habe ich behautpet, dass DU spekulierst? Natürlich spekuliere ich, einfach weil es ab und an mal besser ist, als nur daheim zu hocken und drauf zu warten, bis es regnet oder sich zuvor aus dem Fenster lehnt und nachguckt ob überhaupt und wenn, wann.
Das ist kein Argument, Nintendo und Sony haben genauso ihre Exklusivtitel. Das bringt das derzeitige Publisher- und Konsolenbild nun mal mit sich.
Kein...
WER hat denn, laut deiner Aussage den PC als, zitiere "Zocker-Gerät" etabliert? WER hat Windows und damit den heimischen PC spieletauglich gemacht? WER hat Spiele, wie die Age-of-Serie, herausgebracht? Nintendo und Sony meines Wissens nicht. Die haben auch nicht Windows entwickelt und den PC zu dem gemacht was er heute ist (o.k., Sony hat das CD-Laufwerk entwickelt). Dass DIE ihre eigenen Studios habe, die für sie ihre exklusiv-Titel machen, ist natürlich logisch, die haben schon immer eigenen Spieleplattformen geschmiedet. Microsoft dagegen hatte den PC und den früher auch als eben jene Plattform etabliert und gefordert, bis sie, aus Angst vor der PS2, mit der Xbox daherkamen.
Und WER hat danach
Halo quasi Xbox-exklusiv gemacht? (ein Titel, der zuvor für den PC hätte erscheinen sollen, stattdessen kam 2 Jahre danach nur ein billiger Port)
WER brauchte die ganzen Zugpferde für die eigene, neue Spieleplattform? WAS bitte hat Microsoft die letzten paar Jahre großartig für den PC als Spielegerät gemacht? Ubsioft, Activision und EA haben immerhin noch Spiele dafür, teilweise sogar mit hohen technischen Aufwand, für den PC entwickelt, letztere haben sogar BioWare von Microsoft gelöst und damit gesorgt, dass die Mass-Effect-Reihe immerhin kein Xbox-Exklusivum bleibt. Microsoft haben stattdessen nur ihre "Games for Windows"-Aufkleber auf die Spielepackungen gepappt und sich mit der Xbox einen anverdient.