WinFuture-Forum.de: Windows 8 - Smalltalk - WinFuture-Forum.de

Zum Inhalt wechseln

Windows 8: Alle News, ein umfangreiches Windows 8 FAQ, der Download sowie zahlreiche Screenshots und Videos zum neuen Betriebssystem von Microsoft. Jetzt im WinFuture Windows 8 Special informieren!
  • 73 Seiten +
  • « Erste
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • Letzte »

Windows 8 - Smalltalk

#856 _d4rkn3ss4ev3r_

  • Gruppe: Gäste

geschrieben 12. Mai 2013 - 10:42

Jup und für diesen gibt es halt die Programme die das übernehmen.
0

Anzeige



#857 Mitglied ist offline   Astorek 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.145
  • Beigetreten: 28. Juli 07
  • Reputation: 42
  • Geschlecht:Männlich

geschrieben 12. Mai 2013 - 11:15

Gerade der "Normal-User" unter Linux installiert sich ausschließlich Software aus den Paketquellen, statt wie unter Windows üblich irgendwelche Setup-Dateien herunterzuladen und auszuführen. Was schonmal die Verbreitungsmöglichkeit von Schadsoftware erheblich verringert...

Der "Normal-User" unter Linux aktualisiert sich für Gewöhnlich auch sämtliches Zeugs (auch Java und Flash) über Paketmanager, weil diese so einfach zu handhaben sind - auf "Aktualisieren" klicken und etwas warten, schon ist sämtliche installierte Software (egal ob OpenOffice, Flashplayer oder der Linuxkernel) auf dem aktuellsten Stand. Ich bin nicht, wie bei Windows, auf irgendwelche Hintergrunddienste (unter Linux oft als Daemons bezeichnet) angewiesen, falls diese überhaupt mitgeliefert werden und ich mich nicht händisch um Aktualisierungen kümmern muss...

---

Ansonsten stimme ich aber d4rkn3ss4ev3r zu: Es ist alles eine Frage des Nutzers. Ich habe auch schon Ubuntu-Systeme gesehen, dessen einziger User "root" ist (inkl. dem Einloggen ins grafische System erlaubt wurde!), der Updater über 300 Tage fehlende Aktualisierung anmerkt und als Sahnehäubchen XAMPP eine CPU-Last von konstant 50% erzeugt... Das ist so ziemlich ein GAU-Zustand für jeden Admin, der so eine Kiste warten muss...
0

#858 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 12. Mai 2013 - 12:26

@Astorek: Ja, ich merk schon. Das ist eine schwierige Sache mit dem Rüberbringen, auch und nicht zuletzt, weil díe gesamte Betriebssystem-Debatte ja inzwischen wirklich extrem emotional geworden ist.

Daher von meiner Seite nur soviel:

- Ich finde Open Source als Konzept prima.

- Was ich nicht so prima finde, ist, was die Welt unter Open Source zu verstehen scheint.

Was meine ich damit?

- Zuallererstmal denkt nach wie vor jeder, daß Open Source zu Deutsch kostenlose Software bedeutet. Ich würd mich freuen, wenn's auch mal Open Source FÜR GELD geben würde, mit NDA und allem Drum und Dran. Aber nein, geht ja alles nicht... muß ja alles kostenlos sein. :angry:

- Nächtens: Beispiel Linux und GPL. Die GPL bindet Software an sich - und da Linux selbst unter selber steht, bindet sie insbesondere Software an Linux. Einmal GPL, immer GPL - das meinte ich weiter oben auch mit 'geschlossen'; man kommt aus dem System nicht mehr raus. Dazu kommt - möglicherweise daraus bedingt -- daß auch immer mehr konkret für Linux programmiert wird (und nicht mehr POSIX-kompatibel) mit dem Ergebnis, daß andere Open-Source-Plattformen außen vor bleiben. Gerade bei Dateisystemen ist das offensichtlich - btrfs zum Beispiel mußte entwickelt werden, weil ZFS nicht unter der GPL stand und steht. Und btrfs selbst wiederum kann nicht auf nicht-GPL Plattformen verwendet werden.

Es ist ja schon bezeichnend, daß es überhaupt sowas wie eine *L*GPL geben muß; es stellt sich die Frage, wie ein echter Linuxer darüber denkt.

Und natürlich die Kerneltreiber - jene Treiber, die von Herstellern verfügbar gemacht werden sollen, die aber nicht willens sind, den Quellcode zu veröffentlichen. Der Hersteller, der sein Geschäftsgeheimnis wahren will... wird sich zweimal überlegen, ob er Treiber für Linux veröffentlicht oder nicht.
Klar kann er auch fertige Objekte ausliefern. Aber die funktionieren dann nur mit D-i-E-S-E-R Kernelversion und keiner anderen.

Die übrigen? Müssen sich ebenfalls ranhalten. Wie oft mußte ich schon einen aktuelleren Kernel wegwerfen, weil sonstwelcher Treiber nicht mehr damit ging?
Okay, DKMS hilft hier. Das ist zwar auch nur ne Stopgap-Lösung, aber sei's drum. Scheinbar tut es.


Linux *hat* seine Stärken, keine Frage. Partitionen und Dateisysteme reparieren zum Beispiel ist sehr viel einfacher und erfolgversprechender als unter Windows.

Der Haken - für mich? BSD kann und tut dasselbe... und zwar ohne all diese Einschränkungen.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#859 Mitglied ist offline   IXS 

  • Gruppe: aktive Mitglieder
  • Beiträge: 4.397
  • Beigetreten: 04. Dezember 12
  • Reputation: 225

geschrieben 12. Mai 2013 - 20:01

Beitrag anzeigenZitat (expat: 12. Mai 2013 - 03:15)

Das ist in der Tat ein gutes Argument, passt aber zum Smalltalk. Aber ich glaub ihm das. Vieles bei der Diskussion über Betriebssysteme scheint mir ohnehin Glaubenssache zu sein, denn wer hat schon den vollen Überblick über ein System? Von Mikrosoft jedenfalls glaube ich zu wissen, dass kein Einzelner das Gesamte überblickt. Alle Teilbereiche sind delegiert.


Hier gibt es einen kleinen aber feinen Unterschied. Bei Windows WEIß man, dass es von Microsoft kommt. Im Falle von OS-eigener Malware, hat man den Übeltäter sofort.
Bei Linux sieht das anders aus. Da wurstelt JEDER drin rum und kann auch undokumentierte Unterroutinen einbringen. WER dann später der Verantwortliche für einen "Systemvirus" ist, bleibt unerkannt.

Zitat

Das Ergebnis ist ein riesengroßes aufgeblähtes System, das sich nach meiner Überezugung immer noch auf Windows 98 gründet.


Dann weißt du echt nicht viel über Windows.

Dieser Beitrag wurde von IXS bearbeitet: 12. Mai 2013 - 20:06

0

#860 Mitglied ist offline   Astorek 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.145
  • Beigetreten: 28. Juli 07
  • Reputation: 42
  • Geschlecht:Männlich

geschrieben 12. Mai 2013 - 21:49

Beitrag anzeigenZitat (IXS: 12. Mai 2013 - 20:01)

Hier gibt es einen kleinen aber feinen Unterschied. Bei Windows WEIß man, dass es von Microsoft kommt. Im Falle von OS-eigener Malware, hat man den Übeltäter sofort.
Bei Linux sieht das anders aus. Da wurstelt JEDER drin rum und kann auch undokumentierte Unterroutinen einbringen. WER dann später der Verantwortliche für einen "Systemvirus" ist, bleibt unerkannt.
Sach ma, wie stellt ihr euch eigentlich die Quellcodeverwaltung von OS-Software bitteschön vor? Da herrscht keine Anarchie, in der jeder nach Lust und Laune Git-Pulls (= das Einpflegen von Quellcodes oder -Patches) völlig ohne Kontrolle ausführen kann. Selbstverständlich muss es irgendwelche Verantwortliche und unterschiedliche Kontrollinstanzen geben... Wer, meint ihr, entscheidet schon alleine darüber, was z.B. eine Entwickler- und eine öffentlich zugängliche Version sein soll?

Wenn beim Installieren der Software irgendein Mist passiert, lässt sich das selbstverständlich über den Paket-Maintainer bis hin zum ursprünglichen Programmierer zurückverfolgen, automatisierte Dokumentationen sei Dank.

Ich verweise nochmals darauf, dass die Softwareverwaltung unter Linux auch noch z.T. fundamental anders funktioniert als unter Windows: *Click*

Sorry, aber du weißt echt nicht viel über Linux.

...oder ich habe deinen Beitrag versehentlich falsch interpretiert. Falls das der Fall sein sollte, bitte ich dich, deinen Punkt genauer auszuführen...
0

#861 Mitglied ist offline   IXS 

  • Gruppe: aktive Mitglieder
  • Beiträge: 4.397
  • Beigetreten: 04. Dezember 12
  • Reputation: 225

geschrieben 13. Mai 2013 - 08:34

Beitrag anzeigenZitat (Astorek: 12. Mai 2013 - 21:49)

Sach ma, wie stellt ihr euch eigentlich die Quellcodeverwaltung von OS-Software bitteschön vor? Da herrscht keine Anarchie, in der jeder nach Lust und Laune Git-Pulls (= das Einpflegen von Quellcodes oder -Patches) völlig ohne Kontrolle ausführen kann. Selbstverständlich muss es irgendwelche Verantwortliche und unterschiedliche Kontrollinstanzen geben... Wer, meint ihr, entscheidet schon alleine darüber, was z.B. eine Entwickler- und eine öffentlich zugängliche Version sein soll?


Jeder Entwickler einer Distribution macht das. Und das mit der "Selbstkontrolle" kannst du dir in die Haare schmieren. DASS Linux als Desktop System nicht funktioniert zeigt die -offensichtliche- Anarchie bezüglich der Desktops selber. Wo es nur geht, bäckt jeder sein eigenes Brot. Wenn Open Source wirklich mal "normal" wird, haben wir nicht "5" Standards, sondern "5000"...
Sagen wir mal so: Ich habe schon seit 30 Jahren mit den unterschiedlichsten Computern zu tun. Sogar eine Zeit lang selber programmiert. Auch in Assembler...
Wer schreibt denn heutzutage OS-Quellcode in Assembler? Tatsache ist, wenn jemand solche Subroutinen in ein OS einbaut, wird das von den "standard Entwicklern" nicht erkannt, weil sie mit den Zahlenwerten nichts anfangen können.
Wie Problematisch die Entwicklung bekannter Funktionen schon ist, und vor allem - wie träge alles vonstatten geht - obwohl Linux so viel kleiner als Windows ist. Lässt auf viele offene Fragen schließen.

Zitat


Wenn beim Installieren der Software irgendein Mist passiert, lässt sich das selbstverständlich über den Paket-Maintainer bis hin zum ursprünglichen Programmierer zurückverfolgen, automatisierte Dokumentationen sei Dank.


Und wer kontrolliert die Automatisierung? Das sind Wunschträume, was du da von dir gibst.

Zitat


Ich verweise nochmals darauf, dass die Softwareverwaltung unter Linux auch noch z.T. fundamental anders funktioniert als unter Windows: *Click*

Sorry, aber du weißt echt nicht viel über Linux.




Ich weiß, dass der "normale User" nur Windows 8(derzeit) auf dem PC braucht, um alles Wichtige dort starten und flüssig auf aktueller Hardware nutzen kann.
Wer Linux nutzt, hat auch irgendwo noch ein Windows liegen, wenn er den PC komplett nutzen will.
0

#862 Mitglied ist offline   Astorek 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.145
  • Beigetreten: 28. Juli 07
  • Reputation: 42
  • Geschlecht:Männlich

geschrieben 13. Mai 2013 - 16:25

Beitrag anzeigenZitat (IXS: 13. Mai 2013 - 08:34)

Jeder Entwickler einer Distribution macht das. Und das mit der "Selbstkontrolle" kannst du dir in die Haare schmieren. DASS Linux als Desktop System nicht funktioniert zeigt die -offensichtliche- Anarchie bezüglich der Desktops selber. Wo es nur geht, bäckt jeder sein eigenes Brot. Wenn Open Source wirklich mal "normal" wird, haben wir nicht "5" Standards, sondern "5000"...
Das Eine hat mit dem Anderen nichts zu tun, die Fragmentierung (manche würden dazu auch "Vielfalt" sagen) hat andere Gründe, die ich aber mangels Schreibmotivation nicht weiter ausführen will...

Zitat

Sagen wir mal so: Ich habe schon seit 30 Jahren mit den unterschiedlichsten Computern zu tun. Sogar eine Zeit lang selber programmiert. Auch in Assembler...
[...]
Wie Problematisch die Entwicklung bekannter Funktionen schon ist, und vor allem - wie träge alles vonstatten geht - obwohl Linux so viel kleiner als Windows ist. Lässt auf viele offene Fragen schließen.
Diese Argumentation kann ich gerne zerpflücken: Was definierst du unter "Linux"?

  • Falls du mit "Linux" ausschließlich den Kernel meinst: Dass dessen Entwicklung alles andere als langsam voranschreitet, sollte beim Lesen von Mailinglisten klar sein. Offene Standards hat Linux idR. als eines der ersten Betriebssysteme integriert, dito bei OS-Hardware. Bei anderer Hardware, von denen Hersteller ihre Spezifikationen verbergen wollen, kämpft Linux mit Problemen... Einfach deshalb, weil es selbst mittels Reverse-Engineering ermittelt werden muss und das enorm aufwändig ist.

    Um auch gleich ein Argument von dir zu entkräftigen, dass du sicher bringen würdest, wenn ich es nicht täte: Sind HW-Treiber erstmal im Kernel eingepflegt und außerhalb des sog. "Garbage"-Status, werden diese von den Kernel-Entwicklern himself aktualisiert, falls ein neuer Kernel entwickelt wird.
  • Falls du mit "Linux" sämtliche Software meinst, die benötigt wird, um einen Desktop sinnvoll bedienen und darauf arbeiten zu können: Meinst du wirklich, dass da Linux langsam voranschreitet? Die Entwicklung läuft fragmentierter ab, das mag stimmen... Aber daraus einen Schluss ziehen zu wollen, dass Linux deswegen langsamer entwickelt wird... Nah, ich weiß nicht...



Zitat

Wer schreibt denn heutzutage OS-Quellcode in Assembler? Tatsache ist, wenn jemand solche Subroutinen in ein OS einbaut, wird das von den "standard Entwicklern" nicht erkannt, weil sie mit den Zahlenwerten nichts anfangen können.
[...]
Und wer kontrolliert die Automatisierung? Das sind Wunschträume, was du da von dir gibst.
Schonmal was von Versionsverwaltungssystemen gehört? Stichworte sind SVN und Git... Und die Automatisierung wird dadurch erledigt, dass der schreibende Zugriff auf die Quelltexte ausschließlich über genanntes Versionsverwaltungssystem möglich ist. Und natürlich gibts unterhalb der OS-Gemeinde, gerade wenn mehrere damit rumhantieren, sowas wie Vorgesetzte, die Codes kontrollieren und gegenprüfen. Selbstverständlich kann z.B. nicht jeder dahergelaufene Hanswurst mal einen Kernelpatch in ein Repository einpflegen...

Und um es in aller Deutlichkeit zu sagen: Bei Versionsverwaltungssystemen wird jeder Mist geloggt, der UserXYZ um Uhrzeit DD an Zeile X Buchstabe Y geändert hat. Da kannst du garnicht anders, das ist ja der Sinn von Versionsverwaltungssystemen; inkl. dem Aufbewahren sämtlicher je erstellten Revisions bzw. den Änderungen daran und der Möglichkeit, mehrere Revisions zu einer neuen zusammenzufügen und dabei einzelne Patches für zukünftige Versionen wieder rauszuhauen. Mit Versionsverwaltungssystemen kannst du jederzeit vom "Hello World" bis hin zum fertigen Superschachcomputer hin- und herspringen, wenn du das willst und auch jede Änderung übers System machst. Nicht umsonst werden in manchen Firmen Git & Co. sogar als Dokumentations-System verwendet, obwohl es ursprünglich nicht dafür gemacht wurde... Aber das ist ein anderes Thema...

Was der Seitenhieb auf Assembler soll: Als würden Programmierer, und insbesondere Kernelentwickler(!), sowas nicht gegenchecken und jeden Patch genauestens begutachten und durchtesten. Oder glaubst du ernsthaft, ein Verantwortlicher Programmierer würde den Patch eines anderen, frei dahergelaufenen Entwicklers einfach übernehmen, ohne wissen zu wollen, was er da tut? Wenn mir jemand einen Patch schickt, von dem ich keine Ahnung habe was er macht, wird der dahergelaufene Programmierer gefragt, der Code nachvollzogen und dann gegengeprüft. Ist ja sein "Schätzchen", sein Programm... Hat der Verantwortliche Programmierer keine Ahnung von der Materie und ist auch sonst keiner da, der das prüfen könnte, wird der Patch eben nicht eingepflegt. Ist ja auch logisch: Wie soll der verantwortliche Programmierer die Verantwortung (höhö) übernehmen, wenn er Teile des Quellcodes nichtmal versteht? Und bevor jemand fragt: Ja, Entwickler haben tatsächlich so eine große, eventuell auch merkwürdige, Bindung zu "ihrer" Software, dass sie es nicht ruinieren möchten.

Natürlich gibts auch Bugs, so ist es ja nicht. Aber die können unabhängig bei der Art und Weise, wie Software programmiert wird, überall passieren...

Nochmal: Die Entwicklung von OS-Software ist tatsächlich nicht viel anders als unter Windows. Es ist Fluch und Segen zugleich, dass da "jeder" mitmachen kann - weil man dadurch auch Kontrollinstanzen benötigt, damit die "guten" Patches reinkommen und die "bösen" draußenbleiben. Wenn dieses Konzept nicht funktionieren würde, hätten wir auch keinen Firefox, keinen Thunderbird, kein OpenOffice... Und kein Linux...

Dieser Beitrag wurde von Astorek bearbeitet: 13. Mai 2013 - 16:28

0

#863 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 13. Mai 2013 - 16:34

... außer daß all Deine genannten Beispiele nicht selbst, sondern "nur" weiterentwickelt wurden. Mozilla - F'fox und T'bird -- von Netscape (die Codebasis ist IMMER NOCH drin da). OpenOffice von StarDivision's StarOffice. Und Linux als Reimplementierung von MINIX.

Dasselbe für die allermeisten anderen Projekte.

Ja, es gibt Ausnahmen. Aber das sind halt Ausnahmen und nicht die Regel. :)
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#864 Mitglied ist offline   expat 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.947
  • Beigetreten: 23. März 08
  • Reputation: 118
  • Geschlecht:Männlich
  • Wohnort:Chonburi Pattaya
  • Interessen:Leben und Reisen

geschrieben 14. Mai 2013 - 09:10

Also mal ganz grundsätzlich: die Unterhaltung hier macht dem Forum alle Ehre. Mir gefällt das, wie hier inzwischen ohne jede Polemik diskutiert wird. Viele von euch oder alle haben mehr Kenntnisse über die Systeme als ich, der ich nur ein Anwender bin, wenn auch schon seit langer Zeit.
Dennoch habe ich natürlich meine Eindrücke, die sich aus dem Umgang mit den Systemen ergeben. Bei Windows habe ich den Eindruck, dass seit 95 eine Entwicklung eingesetzt hat, die den User von allen Einsichten und Einblicken fernhalten soll. Windows 8 ist für mich der Gipfel und die Perversion dieses Prinzips. Alles, was nunmehr unter der Fliesen-Oberfläche verborgen ist, müsste dann aber auch perfekt funktionieren. Das wird Windows aber nie tun. Also muss der User sich doch wieder um das Darunter kümmern und somit gegen die heeren Verschleierungsbemühungen von Microsoft ankämpfen. Zunächst bestand ja diese Verschleierung auch darin, die Systemdateien zum Beispiel "unsichtbar" zu machen. Das konnte man aber schnell umgehen in der Einstellung der Ordneransichten. Was ich nun ganz interessant finde, ist der Umstand, dass einen da seit Jahrzehnten immer das selbe Fenster anspringt, wenn man die geschützten Systemdateien angezeigt haben will. Auch das brachte mich zu der vielleicht leichtsinnigen Vermutung, dass ein neues System seit W95 gar nicht mehr geschaffen wurde. Es wurde immer nur herumgewerkelt und korrigiert. Auf dieser Grundlage wird es nach meinem Dafürhalten erst dann ein sicheres Windows geben, wenn man damit gar nicht mehr ins Internet darf.
So wie im obigen Beispiel mit der Ordneransicht konnte man mit den Jahren und ansteigender List und Tücke alle Sicherheitsmaßnahmen abschalten oder umgehen bis hin zur Unbrauchbarkeit des Systems. Der Eindruck verstärkte sich bei mir immer mehr, dass die von Microsoft die User für total bescheuert hielten und halten. Der ganze Firlefanz mit "Trusted User" und anderen ging mir zunehmend dann auf den Geist, wenn ich ein neues Windows installieren musste, aber alte Platten weiter benutzte, die dann erstmal gar nicht lesbar waren.

Dagegen UBUNTU: Ich hatte mehr als ich es habe, große Schwierigkeiten bei der Konfiguration, aber ich konnte die Sicherheitsvorkehrungen, die das System bereit hält, nie umgehen oder austricksen. Wollte ich letztlich auch gar nicht, da alles prima funktioniert.
Warum bin ich dennoch so lange bei Windows geblieben: Weil ich daran gewöhnt war, Geld dafür ausgegeben habe und Linux vor ein paar Jahren für mich zu schwierig war. Ist es aber nicht mehr. Nicht direkt weil ich besser geworden bin, sondern in meinem Fall ist UBUNTU besser geworden.
0

#865 Mitglied ist offline   RalphS 

  • Gruppe: VIP Mitglieder
  • Beiträge: 8.895
  • Beigetreten: 20. Juli 07
  • Reputation: 1.126
  • Geschlecht:Männlich
  • Wohnort:Zuhause
  • Interessen:Ja

geschrieben 14. Mai 2013 - 16:08

Tja, mit Sicherheitskonzepten ist das immer so eine Sache.

Windows - und Microsoft -- verfolgt da einen komplett anderen Ansatz, als es Linux tut.

Aber dennoch: Auch unter Linux werden Systemdateien "ausgeblendet". Da fehlt halt das R-Flag und dann ist die Datei für den jeweiligen Nutzer eben nicht da.

Auch unter Linux wird alles unter der Desktopumgebung versteckt.

Auch unter Linux wird das immer perfider - okay, vielleicht sollte ich sagen, bei GNOME und auch bei XFCE; bei den andren habe ich da nicht so drauf geachtet.

KDE dagegen hat sich zum Windows-Clone schlechthin entwickelt... und, aber da bin ich sicherlich etwas nachtragend: KDE hängt (für mich) der Hauch des... ja wie soll man's nennen... "Nicht-Ins-Konzept-Passer" an. Denn KDE setzt seit Jahr und Tag auf Qt - und Qt war ursprünglich NICHT Open Source. Das kam erst später, und bis heute gibt es noch mehr-oder-weniger die Original-Lizenzform für Geld. Nur halt nicht mehr von Trolltech AB.


Microsoft hat ein ganz anderes Problem. Kurz umrissen sieht das so aus:

- Alle Welt hat Windows. Insbesondere hat jeder DAU Windows.
- Alle Welt muß mit dem eigenen PC umgehen können - und dann natürlich wieder Windows kaufen, aber das lassen wir mal außen vor.
- *WEIL* alle Welt Windows fährt, sind es auch die Windows-Rechner, die auch und gerade im Netz DIE Angriffsfläche stellen.

Windows muß also gleichzeitig(!) den einfachen Umgang mit dem PC sicherstellen (sonst kommen die Kunden nicht wieder) ihn ordentlich abriegeln gegen Schadprogramme aller Art (sonst wird MS verantwortlich gemacht und die Leute kaufen kein Windows mehr) *UND* es muß firmentauglich sein für Unternehmen aller Größe (das ist Microsofts Kernmarkt).

In einem Wort: Das geht so nicht. Kompromisse müssen geschaffen werden.

Daß alles immer gleich aussieht, ist eine Konzession an Unternehmen. WEIL alles gleich bleibt und alles am selben Ort zu finden ist, müssen Firmen ihre Mitarbeiter nicht für jedes Betriebssystem neu schulen.

Kehrseite der Medaille: WEIL alles so EWIG gleich war und sich jeder dran gewöhnt hat, "das" genau "da" zu finden und "so-und-so" an "das-und-das" ranzukommen... deswegen beschwert sich jetzt die Welt über Windows 8. Da ziehen nämlich zum ersten(!) Mal seit 95 ein neues Bedienkonzept ein - und nicht nur "bißchen" sondern "ganz" anders.


In einem Wort: Windows -- bzw genauer: Windows NT, worauf die Windows-Linie seit 2000 basiert --- ist NICHT für Privatleute gedacht. War es nie.

Windows 2000 war dann der Versuch, Privatkunden da irgendwie in ein für Unternehmen entwickeltes System reinzupressen. Das ging natürlich nur mit viel Biegen und Brechen.

Die Konzepte, wie sie Windows verfolgt - Stichwort Netzwerk und Active Directory -- sind für Firmen prima. Für Privat wertlos. Gruppenrichtlinien sind für privat wertlos. Benutzergruppen ebenso, zumindest insoweit, wie am Privat-PC halt nur jeweils einer dran sitzt.

Letztlich ist Windows *zu groß*. Otto Normaluser ist, sorry, nicht (mehr) in der Lage, sein Betriebssystem selber zu administrieren. Dafür bräuchte er eine Einführung, Schulung, nenn es wie Du willst.
Das ging schon unter NT4 kaum. 2000 war ein Riesensprung vorwärts, und im Sinne der Komplexität war Vista gleich der nächste. 7 nicht so - aber dafür 8 jetzt wieder.

Der große Witz? Man *kann* sich sein Windows so ziemlich exakt auf seine eigenen, ganz persönlichen Bedürfnisse zuschneiden. Auch mit Windows 8 geht das. Aber wegen der zugrundeliegenden Komplexität sieht halt keiner mehr durch.

Und *daher* gibt es den Riegel davor. Es geht darum, es dem komplett unbedarften User möglichst NICHT zu ermöglichen, daß dieser "aus Versehen" schweren Mist baut - welcher dann nicht nur ihn, sondern (Teile des) Internets ebenfalls betreffen würden.

NB: auch unter 8 ist man *immer noch* standardmäßig Mitglied der Administratorengruppe. Damit räumt Microsoft dem Nutzer MEHR Zugriffe auf das System ein, als es Linux tut.
"If you give a man a fish he is hungry again in an hour. If you teach him to catch a fish you do him a good turn."-- Anne Isabella Thackeray Ritchie

Eingefügtes Bild
Eingefügtes Bild
0

#866 Mitglied ist offline   expat 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.947
  • Beigetreten: 23. März 08
  • Reputation: 118
  • Geschlecht:Männlich
  • Wohnort:Chonburi Pattaya
  • Interessen:Leben und Reisen

geschrieben 14. Mai 2013 - 16:23

Beitrag anzeigenZitat (RalphS: 14. Mai 2013 - 16:08)



Auch unter Linux wird alles unter der Desktopumgebung versteckt.



Zunächst besten Dank für diesen Überblick. Ich glaube, das sehe ich nicht anders als du. Zum Zitat möchte ich aber noch sagen, dass ich das nicht anders sehe, aber auch nicht anders bei meinem letzten Beitrag geschrieben habe. Der Unterscheid nur ist eben, dass ich den Zugang bei Linux (UBUNTU) gar nicht brauche, weil es mit Bordmitteln für mich bisher möglich war, alles ohne Eingriffe unter die Oberfläche zu erreichen. Natürlich braucht es doch eine gewisse Eingewöhnung, die ich nun aber beim Ansehen von Windows 8 schlagartig auf mich genommen habe.
0

#867 Mitglied ist offline   IXS 

  • Gruppe: aktive Mitglieder
  • Beiträge: 4.397
  • Beigetreten: 04. Dezember 12
  • Reputation: 225

geschrieben 14. Mai 2013 - 16:41

Beitrag anzeigenZitat (RalphS: 14. Mai 2013 - 16:08)



Windows muß also gleichzeitig(!) den einfachen Umgang mit dem PC sicherstellen (sonst kommen die Kunden nicht wieder) ihn ordentlich abriegeln gegen Schadprogramme aller Art (sonst wird MS verantwortlich gemacht und die Leute kaufen kein Windows mehr) *UND* es muß firmentauglich sein für Unternehmen aller Größe (das ist Microsofts Kernmarkt).

In einem Wort: Das geht so nicht. Kompromisse müssen geschaffen werden.



Es stand sogar schon in der c't . Windows ist effektiv(theoretisch) das sicherste Betriebssystem.

Zitat


Daß alles immer gleich aussieht, ist eine Konzession an Unternehmen. WEIL alles gleich bleibt und alles am selben Ort zu finden ist, müssen Firmen ihre Mitarbeiter nicht für jedes Betriebssystem neu schulen.

Kehrseite der Medaille: WEIL alles so EWIG gleich war und sich jeder dran gewöhnt hat, "das" genau "da" zu finden und "so-und-so" an "das-und-das" ranzukommen... deswegen beschwert sich jetzt die Welt über Windows 8. Da ziehen nämlich zum ersten(!) Mal seit 95 ein neues Bedienkonzept ein - und nicht nur "bißchen" sondern "ganz" anders.



Windows 8 ist näher an Windows 95 als seine beiden Vorgänger. Das Bedienkonzept ist auch nur marginal anders. DASS Andere dieses Konzept als "total anders" einstufen, ist schon eher seltsam.

Zitat



In einem Wort: Windows -- bzw genauer: Windows NT, worauf die Windows-Linie seit 2000 basiert --- ist NICHT für Privatleute gedacht. War es nie.

Windows 2000 war dann der Versuch, Privatkunden da irgendwie in ein für Unternehmen entwickeltes System reinzupressen. Das ging natürlich nur mit viel Biegen und Brechen.



Das hat , für meinen Geschmack, gut funktioniert. Ich habe Windows 2000 von 2000 bis 2003 genutzt und war vollends zufrieden. Klar, die Bootzeit war lang, aber alles lief (dank DirectX), was laufen sollte... stabil.

Zitat

Die Konzepte, wie sie Windows verfolgt - Stichwort Netzwerk und Active Directory -- sind für Firmen prima. Für Privat wertlos. Gruppenrichtlinien sind für privat wertlos. Benutzergruppen ebenso, zumindest insoweit, wie am Privat-PC halt nur jeweils einer dran sitzt.

Letztlich ist Windows *zu groß*. Otto Normaluser ist, sorry, nicht (mehr) in der Lage, sein Betriebssystem selber zu administrieren. Dafür bräuchte er eine Einführung, Schulung, nenn es wie Du willst.
Das ging schon unter NT4 kaum. 2000 war ein Riesensprung vorwärts, und im Sinne der Komplexität war Vista gleich der nächste. 7 nicht so - aber dafür 8 jetzt wieder.


Vista war der richtige Weg, nachdem XP mit seinen Sicherheitslücken eigentlich hätte obsolet sein müssen.
Die hohen Sicherheitseinstellungen konnte man als unbedarfter Nutzer durch die Benutzerkontensteuerung in einem übersichtlichen Maß kontrollieren.
Anstatt nun die "Fachleute" jedem XP Nutzer Vista mit den benötigten PC Anforderungen empfahlen, wurde Vista von "Allen" verrissen. Nun, so lernt man "Fachleute" kennen.

Zitat

Der große Witz? Man *kann* sich sein Windows so ziemlich exakt auf seine eigenen, ganz persönlichen Bedürfnisse zuschneiden. Auch mit Windows 8 geht das. Aber wegen der zugrundeliegenden Komplexität sieht halt keiner mehr durch.

Und *daher* gibt es den Riegel davor. Es geht darum, es dem komplett unbedarften User möglichst NICHT zu ermöglichen, daß dieser "aus Versehen" schweren Mist baut - welcher dann nicht nur ihn, sondern (Teile des) Internets ebenfalls betreffen würden.

NB: auch unter 8 ist man *immer noch* standardmäßig Mitglied der Administratorengruppe. Damit räumt Microsoft dem Nutzer MEHR Zugriffe auf das System ein, als es Linux tut.



Summa Summarum: Windows 8 ist das beste OS für den PC.
0

#868 Mitglied ist offline   Binabik 

  • Gruppe: aktive Mitglieder
  • Beiträge: 268
  • Beigetreten: 23. Oktober 07
  • Reputation: 59

geschrieben 15. Mai 2013 - 23:12

Mal interessehalber, ich habs vergessen zu testen. Wenn man sich bei der Einrichtung von Win 8 für ein MS-Konto entscheidet, kann man sich dann beim Fehlen einer Internetverbindung überhaupt an diesem Rechner anmelden?
0

#869 Mitglied ist offline   Urne 

  • Gruppe: Moderation
  • Beiträge: 17.943
  • Beigetreten: 12. Juni 05
  • Reputation: 394
  • Geschlecht:Männlich
  • Wohnort:BL
  • Interessen:Computer

geschrieben 15. Mai 2013 - 23:14

Ja das geht trotzdem.
Alkohol und Nikotin rafft die halbe Menschheit hin und nach alter Sitt und Brauch stirbt die andere Hälfte auch.
0

#870 Mitglied ist offline   expat 

  • Gruppe: aktive Mitglieder
  • Beiträge: 1.947
  • Beigetreten: 23. März 08
  • Reputation: 118
  • Geschlecht:Männlich
  • Wohnort:Chonburi Pattaya
  • Interessen:Leben und Reisen

geschrieben 16. Mai 2013 - 01:03

Beitrag anzeigenZitat (IXS: 14. Mai 2013 - 16:41)

Summa Summarum: Windows 8 ist das beste OS für den PC.

Man nimmt halt meistens die Religion an, mit der man aufgewachsen ist.
0

Thema verteilen:



1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0