Betriebssysteme - Zweck und Geschichte von Magnus Müller


Betriebssysteme - Zweck und Geschichte

  1. Zweck/Funktion eines Betriebssystems
    Existenzgrund der Betriebssysteme
    Vom Timesharing zum Multitasking
  2. Bekannteste Betriebssysteme und ihre Geschichte
    2.1 Unix
    2.2 PC-DOS
    2.3 Windows
    2.3.1 DOS-Linie, 16 Bit
    2.3.1.1 Win 1.0
    2.3.1.2 Win 2.0
    2.3.1.3 Win 3.0
    2.3.2 DOS-Linie, 32 Bit
    2.3.3 NT-Linie
    2.4 GNU/Linux
    2.4.1 Grundlagen
    2.4.2 KDE
    2.4.3 GNOME
    2.4.5 Versionen
    2.4.6 Schlusswort
    2.4.7 Zusatz: Der Linux Basar
  3. Die Zukunft
    TCPA
    Windows Longhorn
  4. Zusammenfassung
  5. Weiterführende Links

1. Zweck eines Betriebssystems

Wir alle haben täglich mit Betriebssystemen zu tun, ob es uns bewusst ist oder nicht. Ob wir einen Brief auf unserem PC schreiben, eine Überweisung an einem Geldautomaten vornehmen oder einen Ort in unser Navigationssystem eingeben, wir sind von Betriebssystemen umgeben.

Nun stellt sich die Frage, wozu wir Betriebssysteme überhaupt benötigen.

Betriebssysteme stellen eine Schnittstelle zwischen dem User und der elektronischen Hardware dar. ( siehe Schema ) Ohne Betriebssystem wäre es nicht möglich einen PC zu nutzen, da es keine Eingabemöglichkeiten gäbe.
Schnittstelle Betriebssystem
Schema der Kommunikation zwischen dem User, des Betriebssystems und der Hardware
Somit hat das Betriebssystem neben der Funktion der Visualisierung von Daten auch den Zweck die Hardware anzusprechen, und somit Rechenoperationen überhaupt möglich zu machen.

Vom Timesharing ...

Eine großer Schritt in Richtung unserer heutiger Betriebssysteme war die Einführung des Timesharing-Prinzips an großen Universitäten und in Firmen.
Das Timesharing-Prinzip basiert auf der Grundlage, das die in den 70er Jahren üblichen Mainframes zu teuer waren um sie einzelnen Usern zur Verfügung zu stellen. Dies störte viele Leute, denn so wurde Rechenleistung oft grundlos verschwendet. Hier greift also Timesharing ein.
Beim Timesharing teilen sich mehrere Nutzer einen Rechner. Jedem einzelnen wird eine bestimmte Zeit zugesprochen, in der er die Rechenleistung nutzen kann. Der User merkt dies nur bedingt, da es für ihn den Anschein hat, als würde er einen eigenen Rechner nutzen. Ein Beispiel für ein Betriebssysteme welches dieses System nutzt ist z.B. Unix.

Prinzip des Timesharings: Jeder Benutzer kann eine bestimmte Zeit die Rechenleistung nutzen. Sobald seine Zeit zuende ist, kommt der nächste Benutzer. Jedoch merkt User 1 nicht, das User2 nun die Kontrolle hat, denn der Wechsel zwischen den einzelnen Usern geschieht zu schnell, als das ein einzelner ihn direkt spüren würde. Nur die Auswirkungen der Auslastung des Systems wird bemerkt.

Die Entwicklung des Timesharing-Prinzips wurde das erste mal im Jahre 1957 in einem Artikel von Bob Bemer im Automatic Control Magazin beschrieben. John McCarthy initiierte das erste Timesharing-Projekt Ende 1957. Das Ergebnis Computer Time Sharing System oder CTSS, wurde im November 1961 vorgestellt. Es war ein gutes System und blieb bis 1973 in Betrieb.

Timesharing wird auch heute noch genutzt, jedoch in einer etwas anderen Art wie vor 30 Jahren. Ein Anwendungsgebiet ist der Markt für Virtuelle Server. Um sich das Geld für einen eigenen Server zu sparen, mieten sich viele Webmaster einen virtuellen Server, bei dem sie sich jedoch die Rechenleistung mit anderen Usern teilen müssen. Dies kann manchmal sehr nachteilhaft sein, eben wenn viele andere User den Server auslasten. Ist der Server jedoch nicht ausgelastet, nachts z.B., dann kann er oftmals genutzt werden wie ein eigener Root-Server.


... zum Multitasking ( oder: Timesharing der Systemprozesse )

Unter Multi-Tasking versteht man die Art, mit welcher moderne Betriebssysteme mehrere Programmabläufe gleichzeitig ermöglichen.
Indem jedem Task eine bestimmte Zeit in der er arbeiten darf zugeteilt wird, ermöglicht das OS somit die Aufteilung der vorhandenen Ressourcen, und jeder Prozess erweckt den Eindruck als einziger die Hardware zu beanspruchen. Sobald seine Zeit abgelaufen ist, wird er gefreezt, also eingefroren, bis das System ihm wieder Zeit zuteilt.
Bei Systemen ohne Multi-Tasking ( wie z.B. MS-DOS ) muss jeder Task erst komplett durchgelaufen sein, bevor ein neuer gestartet werden kann.( -> siehe Mainframe: Der Operator muss eine neue Lochkarte einfügen ) Wenn ein Prozess nun unverhältnissmäßig lange dauert, dann hält er das gesamte System auf. Diese Zeit, in der der Prozess z.B. auf eine Eingabe wartet, kann durch Multi-Tasking genutzt werden, denn ein wartender Prozess benötigt keine Rechenleistung.

OS ohne Multi-Tasking - Jeder Task muss beendet werden, bevor ein neuer gestartet werden kann.

OS mit Multi-Tasking - Jeder Task bekommt eine bestimmte Zeitspanne, dann wird er gefreezt. Dadurch werden mehrere Tasks gleichzeitig ermöglicht.

2. Bekannteste Betriebssysteme und ihre Geschichte

2.1 Unix

Vor Unix gab es noch keine wirklichen Betriebssysteme. Um eine Abfrage in einem Mainframe zu bearbeiten, mussten Lochkarten oder Lochstreifen von den Programmierern an die Mainframeoperatoren übergeben werden, die diese dann einführten und die Ergebnisse meist gedruckt an die Programmierer zurückgaben. 1969 began Ken Thompson, der in den Bell Laboratories der Firma AT&T arbeitete, damit, ein System zu schaffen auf dem mehrere Programmierer gleichzeitig den Rechner nutzen können. Da Unix ursprünglich mit der Assembler-Sprache PDP-7 geschrieben wurde, lief es nur auf Systemen des Typs DEC PDP-7. Um eine Portierbarkeit auf andere Systeme zu gewährleisten, entwickelte Thompson die Programmiersprache B, aus welcher später auch die heute noch genutzte Programmiersprache C entstand. Nun könnte man denken, Unix wäre nach ca. 30 Jahren seit seiner Geburt altes Eisen und reif für das Museum. Dem ist jedoch nicht so. Auch heute kommt Unix noch in großem Maße vor, hauptsächlich als BS für Server und Mainframes. Jedoch kann Unix auch auf PC's und kleineren Computern genutzt werden, wobei aber im allgemeinen Unix-Derivate zum Einsatz kommen ( zb. Linux )

Auch heute schrecken viele User die kryptischen Befehle von Unix und seinen Derivaten ab (Ich benutze ab hier den Begriff *nixfür Unix und seine Derivate ). Oft bestehen die Befehle aus höchstens 4 Buchstaben.

Anwendungsgebiet Befehle
Directory/Datei Erstellung/Navigation
  • ls zum Anzeigen des Ordnerinhalts
  • cd zum Wechsel des Ordners
  • pwd zum Anzeigen des aktuellen Verzeichnisses
  • mkdir zum erstellen eines neuen Ordners
  • etc.
  • Datei Betrachtung, Veränderung
  • vi Der vi-Editor, welcher auf jedem Unix-System zu finden ist.

  • Diese unvollständige Liste kann noch fortgeführt werden. Der Grund für diese schwer zu lernenden Befehle ist die Tatsache, das hauptsächlich Programmierer und Systemadministratoren Unix nutzten. Für sie war nur die Geschwindigkeit der Eingabe von Bedeutung, da sie ständig mit Befehlen arbeiten.


    Unixkonsole

    Aber grafische Oberflächen ( GUI -> Graphical User Interface ) haben inzwischen *nix-Systemen ihren Schrecken genommen. Mit etwas Eingewöhnung können auch Anfänger mit Unix fertig werden, sie benötigen nicht das komplizierte Fachwissen über jeden bestimmten Systemdienst. Die Konsole bleibt aber immer ein wichtiger Teil des Systems, da auch die Fortbewegung im Systembau mit ihr um einiges schneller ist als normales Klicken; auch ist die Systemkonfiguration oftmals erheblich schneller. Oftmals reichen schon einige Sekunden in der Konsole um über einen Befehl einen bestimmen Systemservice zu starten, während man sich in der GUI eventuell noch durch bestimmte Standarddialoge klicken muss.

    *nix wird auch weiterhin eines der wichtigsten Betriebssysteme bleiben, denn kein anderes System ist so skalierbar; z.B. läft *nix auf alten Heimrechnern aber auch auf neuen Mainframes großer Universitäten.

    2.2 PC-DOS

    PC-DOS gilt als Durchbruch des Softwareherstellers Microsoft. Microsoft erwirtschaftete durch Investitionen von insgesamt etwa 1,05 Millionen USD einen Gewinn von etwa 200 Millionen USD. Nun zur Geschichte von PC-DOS.
    IBM entschloss sich 1980 einen eigene PC auf den Markt zu bringen. Da ihnen das Fachwissen fehlte, traten sie zuerst an Microsoft heran. Microsoft jedoch war nicht imstande, selbst ein eigenes Betriebssystem und einen BASIC-Interpreter für IBM zu entwickeln ( Microsoft machte mit Steckkarten für Apple II,mit welchen CP/M auf Apple lauffähig wurde,mehr Umsatz als mit den eigenen Produkten ). Daher wollte IBM mit dem Entwickler Gary Kildall, dem Gründer der Firma Digital Research, zusammenarbeiten. Dies kam jedoch nicht zustande, da Kindall nicht daheim war als die Anwälte von IBM kamen. Hier sah Microsoft seine große Chance: sie versuchten ihre Unix-Derivat XENIX an IBM zu verkaufen. Da XENIX aber nicht für Heim-PC's geeignet war ( es benötigte eine Festplatte, welche damals noch 10000 USD kosteten) entschied sich Microsoft, eine CP/M Kopie zu kaufen, entwickelt von der Seattle Computer Products (SPC). Diese Kopie wurde QDOS ( Quick and Dirty Operating System ) genannt.Microsoft führte nur kleine Verbesserungen an QDOS durch, und verkauften es als PC-DOS an IBM, behielt sich aber das Recht vor, dieses BS als MS-DOS zu lizenzieren. Jedoch war die Version 1.0 von PC-DOS noch sehr fehleranfällig und instabil. Der Grund für den Erfolg war der geringe Preis. PC-DOS kostete 60 USD (da IBM nur einmalige Lizenzgebühren zahlen musste),das stabile CP/M 175 USD.
    Erst in der Version 2.11 wurden die Kinderkrankheiten gelöst.Eine wichtige Hilfe für den Erfolg von MS-DOS war eine Absprache mit Lotus, welche ihr Programm "Lotus 1-2-3" für MS-DOS programmierten. Lotus 1-2-3 war ein Tabellenkalkulationsprogramm, also der Hauptgrund für die Anschaffung eines PC's. Durch diesen Umstand wurde Microsoft zum Marktführer und zog an Digital Research vorbei.

    DOS wird ebenso wie Unix immer noch genutzt. Die Entwicklung stoppte großteils zwar schon vor langer Zeit, aber auch DOS hat nachahmer wie z.B. FreeDOS, ein Open Source Projekt das versucht 100 % DOS-Kompatibel zu sein. Dies hat den Grund, das man alte Rechner nicht gleich Müll sind, sondern man sie z.B. als Mailserver im Heimnetzwerk verwenden kann. Microsoft hat zu diesem Zweck Internetupdates und Erweiterungen für MS-DOS herausgebracht.

    DOS-Konsole auf einem Rechner mit Windows XP

    2.3 Windows


    Zeitleiste der Windows-Veröffentlichungen, angefangen 1985 mit Windows 1.0

    Windows, das meistgenutzte Betriebssystem heute, kann auf eine 20-jährige Geschichte zurückblicken. Man kann über Microsoft und seine Userbindende Programmierweise sagen was man will, der wirtschaftliche Erfolg ihrer Produkten bleibt ungebrochen. Windows initialisierte maßgeblich den PC-Markt, auch wenn schon 20 Jahre vor der Veröffentlichung von Windows eine GUI am Augmentation Research Center (ARC, gegründet 1965 ) des Stanford Research Institute entwickelt und teilweise implementiert wurde.
    Streng genommen kann man alle Versionen der DOS-Linie, ob 16 oder 32 Bit, nicht als Betriebssysteme bezeichnen, da alle Versionen auf DOS basieren. Jedoch kamen mit der Entwicklung der 3.x Versionen viele gemeinsame Neuerungen hinzu (welche sich in Windows gehalten haben, z.B. ein eigener Kernel der nach dem Systemstart die Systemzugriffe steuert ), so dass man heute allgemein Windows als Betriebssystem bezeichnet, obwohl dies erst ab der NT-Linie korrekt wäre.

    2.3.1 DOS-Linie, 16 Bit

    2.3.1.1 Win 1.0
    Windows 1.0 wurde am 10. November 1983 veröffentlicht und war die erste GUI von Microsoft.
    Es gab einige Besonderheiten in Win1.0, welche man sich heute nicht mehr vorstellen kann. so konnte man beispielsweise keine Fenster übereinander schieben, nur Dialoge erschienen über Fenstern.
    Windows 1.0 beherrschte entgegen dem Konkurrent GEM von Digital Research bereits preemptives Multitasking.

    2.3.1.2 Win 2.0
    1987 veröffentlichte Microsoft Windows 2.0 . Es enthielt einige Verbesserungen wie z.B. DDE, überlappende Fenster, VGA- Unterstützung, und den "Cool-Switch" ( Alt+Tab ) zum Wechsel zwischen verschiedenen Applikationen.

    2.3.1.3 Win 3.x
    Windows 3.0 wurde am 22. Mai 1990 veröffentlicht. Nach dem Vorbild des Apple Macintosh entwickelt, enthielt es ein besseres User-Interface um vom Memory Management der Intel 80286 und 80386 Gebrauch zu machen. Zwar war Windows 3.0 auch weiterhin nur ein DOS-Frontend, jedoch bezeichnete man es aufgrund seiner Funktionen welche in der gesamten 3.x-Reihe vorkamen als Betriebssystem. Ein Feature welches dies unterstützt war z.B. die Möglichkeit mehrere DOS-Programme gleichzeitig in einem eigenen Fenster laufen zu lassen. Somit konnte man das Multitasking auf DOS-Programme erweitern.
    In den ersten 4 Monaten nach der Veröffentlichung von Windows 3.0 wurden etwa eine Million Exemplare verkauft, ein enormer wirtschaftlicher Erfolg.

    2.3.2 DOS-Linie, 32 Bit

    Win 95
    Windows 95 entstand unter enormen Sicherheitsmaßnahmen: Microsoftmitarbeiter mussten einen Vertrag unterschreiben der ihnen Untersagte mit irgendjemand ausserhalb von Microsoft über Windows 95 zu sprechen. Wenn der Mitarbeiter diese Regel brach, wurde er verklagt.
    Diese Sicherheitsmaßnahmen hatten durchaus Sinn, denn Microsoft plante die aufwendigste Veröffentlichung aller Zeiten. Durch diese Marketingkampagne konnten Verkaufszahlen erreicht werden, die noch heute ungeschlagen sind.
    Windows 95 führte viele Innovationen ein, wie z.B. die 32-Bit-Technologie, welche auch heute noch im Einsatz ist. Der Umstieg von der veralteten 16-Bit-Technologie brachte eine enorme Performancesteigerung. Durch Multitasking konnten mehr Programme gleichzeitig aus- geführt werden, die sich Rechenzeit teilten. Trotz der noch bestehenden Bindung an MS-DOS war es ein großer Sprung von Windows 3.11 zu Windows 95.
    Insbesondere der Ausbau des Multimediabereichs, die Verbesserung des Netzwerkverhaltens und intuitivere Steuerung machten Windows 95 so erfolgreich.

    Win 98
    Windows 98 war eine Weiterentwicklung von Windows 95 C. Es enthielt eine Menge Bugfixes welche das System sicherer gegen Abstürze machten.
    1999 wurde Windows 98 SE veröffentlicht, welches neben Bugfixes eine bessere USB-Unterstützung und ICS ( Internet Connection Sharing -> über einen Verbindung können mehrere Rechner ins Internet ) bot.

    Screenshot in Windows 98
    Win ME
    Windows ME (Millenium Edition) ist eine erweiterte Version von Windows 98 SE. Es ist die letzte Version der MS-DOS-Linie.

    2.3.3 NT-Linie

    Win NT
    Microsoft began Ende der 80er-Jahre damit, ein komplett neues Betriebssystem zu entwickeln, das nicht mehr auf DOS basierte. Um dieses Ziel zu erreichen warb Microsoft David N. Cutler und sein Entwicklungsteam von DEC ab. Cutler war ein gefragter Entwickler, da er maßgeblich an der Entwicklung von VMS beteiligt war. DEC antwortete mit einer Klage auf diese Abwerbung, die jedoch aussergerichtlich durch Zahlungen von 150 Mio. USD und die Zusage, dass Windows NT die DEC Alpha-Architektur unterstützt, beigelegt werden.

    Zu Beginn der Forschung stellte David N. Cutler die 3 wichtigsten Punkte dar:
    - Einzelne Programme dürfen nicht länger das gesamte Betriebssystem zum Absturz bringen; etwas, das bei VMS und Unix schon lange implementiert war
    - Windows NT sollte auf allen neuen Architekturen lauffähig sein
    - Windows NT sollte als Basis für verschiedene BS dienen, so dass Windows-, POSIX-, DOS-, und OS/2-Programme gleichzeitig problemlos laufen können.

    1993 wurde Windows Nt schließlich veröffentlicht. Cutler hatte seine 3 Hauptziele erreicht: das Betriebssystem war stabil, portierbar und konnte als Basis für andere Betriebssysteme genutzt werden.
    Jedoch gab es nach einiger Zeit wieder Rückschritte: Microsoft verpasste es, die OS/2 und POSIX Teile zu aktualisieren, weshalb die Implementierung dieser Teile bald umsonst war. Ein weiterer Fehler war die Integrierung der Grafiktreiber in den Systemkern, was zwar Performancesteigerungen bringen konnte, aber auch neuere NT-Versionen durch Fehler im Grafiktreiber zum Absturz brachte.
    Ein weiteres Problem bei Microsoft war die Entwicklung von 2 unterschiedlichen Entwicklungssträngen: der DOS-Linie ( 95,98,ME ) und die NT-Linie. Dieses Problem wurde mit der Zusammenführung der 2 Stränge in Windows XP gelöst.

    Win 2000
    Windows 2000 ist eine Weiterentwicklung von Windows NT. Es enthält Neuerungen im Netzwerkbereich, wie z.B. das Verschlüsselungsprotokoll IPSec. Windows 2000 ermöglichte auch die Verwendung von Windows auf Servern. Neben der Version für Workstations ( Professionel ) gibt es noch Windows Server, Advanced Server und Datacenter. Advanced Server ermöglicht eine Nutzung von bis zu 8 Prozessoren, Datacenter bis zu 32 Prozessoren. Windows 2000 Advanced Server und Datacenter konnten auch zur Bildung von Clustern verwendet werden.
    Andere wichtige Neuerungen waren die Änderung des Dateisystems zu NTFS, die Unterstzützung von USB und Dynamic DNS zur Erleichterung der Systemadministration.

    Win XP
    Windows XP ist die momentan aktuelle Version von Windows. XP steht für "eXPerience" (Engl: Erfahrung, Erlebnis).
    Mit Windows XP wurden die ursprüglichen 2 Entwicklungsstränge (Dos- und NT-Linie) zusammengeführt. Daher gibt es 2 unterschiedliche XP Versionen, Home und Professional. Windows XP Home ist der Nachfolger von Windows ME, Professional der von Windows 2000. Windows XP Home ist eine um bestimmte Tools gekürzte Version, die hauptsächlich für Unternehmen benötigt werden, wie z.B. Fernverwaltung, Dateiverschlüsselung, Nutzung von mehreren Prozessoren ( SMP ), und anderen ).
    Windows XP sollte als Nachfolger der DOS-Linie natürlich auch DOS-Programme emulieren können, damit mehr User auf XP emigrieren. Jedoch gelang dies nur unvollständig, und ältere DOS-Programme können nicht mehr genutzt werden.
    Viele User mangelt es bei Windows XP an Sicherheit und Transparenz. Die Flut an benötigten Updates reisst nicht ab. Besonders störend empfinden Datenschützer die XP Gewohnheit, Daten an Microsoft zu senden, weshalb empfohlen wird eine Firewall zu verwenden.

    Screenshot in Windows XP

    2.4 GNU/Linux


    Tux, das Linux-Maskottchen

    2.4.1 Grundlagen

    "Linux is a Unix-like operating system, but not a version of Unix." The Linux Edge, Linus Torvalds

    Anfang der 90er Jahre kam der junge Student Linus Torvalds auf die Idee, ein Unix-Betriebssystem für seinen PC zu programmieren. Diese Idee war die Geburtsstunde des Linux-Kernels ( Linux-Betriebssystemkerns ).Da Linus sich gerne austauschte und keinen kommerziellen Nutzen aus seinem Betriebssystem ziehen wollte ( welches bis dahin noch "Freax" genannt wurde ), veröffentlichte er es unter der GPL.

    "...As I mentioned a month ago, I'm working on a free version of a Minix-look-alike for AT-386 computers. It has finally reached the stage where it's even usable (though may not be, depending on what you want), and I am willing to put out the sources for wider distribution. It is just version 0.02...but I've successfully run bash, gcc, gnu-makee, gnu-sed, compress, etc. under it." (linux.com)
    Mit diesem Eintrag in die Newsgroup comp.os.minux begann die Verbreitung von Linux und löste große Diskussionen unter Programmieren aus, die schnell anfingen, den Source Code weiter zu verbessern. So entstand nach und nach eine lose Linux-Gemeinschaft, verteilt über die ganze Welt.

    Anfangs eignete sich Linux jedoch nicht für den Endanwender: Es war textbasiert ( wurde also über eine Texteingabe gesteuert ) und daher sehr kompliziert. Ebenso wie seine Inspiration Unix war es sehr kryptisch, Befehle sind oftmals nur 4 Buchstaben lang ( zB. benötigte man ls -a um alle Dateien eines Verzeichnisses anzeigen zu lassen; siehe Unix ).


    Linuxkonsole kurz nach dem Bootvorgang

    1994 wurde die Benutzerschnittstelle des XFree86-Projektes an Linux angepasst, womit man die Verwendung grafischer Oberflächen ermöglichte. Dies war ein wichtiger Schritt in die Richtung von Endanwendern.

    Linux wird grafisch
    2.4.2 Entstehung von KDE
    1998 wurde das KDE-Projekt ins Leben gerufen, welches heute die am meisten verbreitete Desktopumgebung für Linux ist. Vielen Usern war KDE am Anfang jedoch ein Dorn im Auge: es baute auf der QT-Library der Firma Trolltech auf, welche zu diesem Zeitpunkt noch proprietär war.
    2.4.3 Entstehung von GNOME
    Dies war der Grund für Miguel de Icaza und sein Team ein anderes Desktopsystem zu schaffen, das völlig frei sein sollte. Gnome basiert auf der freien Programm-Bibliothek GTK.
    Der Grund für die Entstehung Gnome's hat sich heute praktisch erledigt, da Trolltech Qt unter die GPL gestellt hat und ein darauf basierendes Geschäftsmodell entwickelte: sie veröffentlichen Programme unter der GPL, aber geben Firmen die Chance diese Programme zu lizensieren, denn wenn Firmen Programme unter der GPL nutzen, müssen sie auch die eigenen Quellcodes freigeben. Diese Lizensierung bringt also etwas für beide Parteien: Trolltech kann Geld verdienen und trotzdem durch die GPL etwas für die Allgemeinheit tun, und die Firmen haben die Möglichkeit ihre Binärsoftware ( Software die nur als ausführbare Datei verkauft wird ) zu vermarkten.

    Systemadministratoren lehnen heute noch die grafische Oberfläche im allgemeinen auf Servern ab, da sie schlichtweg zu viel Speicher verbraucht und auch die Eingabe von textbasierten Befehlen um einiges schneller ist als Programme zu suchen und anzuklicken.

    2.4.4 Vergabe der Versionsnummern
    Oft heisst es: Welches Linux nutzt du? Wenn dann die Antwort heißt: Suse 9.0 oder Mandrake 9.2 , dann stimmt das nicht, entgegen unserem durch Windows 95/98/xx vermittelten Gefühl für Versionsnummern.
    Wenn man von der Linux-Version spricht, dann meint man im allgemeinen die des Linux-Kernels, und eben nicht die Version der Distribution. Die Versionsnummern für den Kernel werden folgendermaßen vergeben: geteste und als stabil bewertete Linux-kernel erhalten als Zahl an der zweiten Stelle der Versionsnummer eine gerade Ziffer ( zB. 2.4.1 ). Unstabile Entwicklerversionen erhalten eine ungerade Ziffer ( zB. 2.3.1 ). Dieses System wird aber nicht nur bei Linux sondern im allgemeinen bei Open Source-Projekten genutzt.

    2.4.5 Schlusswort
    Ständige Verbesserungen zeichnen Linux aus, entgegen dem Spruch "zuviele Köche verderben den Brei". Trotz des relativ losen Zusammenhalts werden Sicherheitslöcher meistens schneller entdeckt als bei dem proprietären Betriebssystem Windows. Daher ist Linux besonders für versierte Computernutzer geeignet, die viel mit dem PC und Internet zu tun haben. Doch auch Linuxneulinge oder auch absolute Computereinsteiger können Linux verstehen, wenn sie genug Zeit investieren. Die Vielfalt an Distributionen bietet Lösungen zu fast jedem Problem.

    2.4.6 Zusatz: Der Linux Basar
    Man darf Linux jedoch nicht nur unter dem technischen Aspekt betrachten, denn die Softwaregemeinschaft welches aus der Idee des Studenten Linus entstand, bewies auch einige neue Erkenntnisse im Bereich der Sozialwissenschaften. So brachte die dezentrale Softwareentwicklung der Komponenten von GNU/Linux ( speziell in diesem Bereich sollte man Wert auf die Verwendung des Namens GNU/Linux legen, da Linux streng genommen nur der Systemkernel ist; GNU/Linux bedeutet dann in etwa GNU Software verwendet auf dem Linux Systemkern ) die Erkenntnis mit sich, das es nicht immer einer straff organisierten Softwareentwicklung bedarft, um große Projekte ständig auf dem laufenden zu halten. Zwar kommt man bei der Entwicklung Systemkritischer Komponenten wie z.B. Kernelupdates nicht um die Arbeit in einem kleinen Team herum, jedoch kann man für große Projekte wie z.B. KDE Entwickler auf der ganzen Welt vereinen. Oft hat dieses System auch Vorteile gegenüber der normalen Arbeitsweise großer Firmen wie Microsoft, da jeder Zugriff auf jeden Teil der Quelltexte hat, Verbesserungsvorschläge machen kann und an der Stelle mitarbeitet die ihn wirklich interessiert. Der psychologische Faktor hinter diesem System zieht ständige Verbesserungsmaßnahmen mit sich; denn jeder Mitarbeiter macht seine Arbeit freiwillig und will somit für "sein" Projekt das beste.
    Das dieses System für viele unmöglich erscheint ist logisch. Eric S. Raymond schrieb in seinem Essay "Die Kathedrale und der Basar" (1997):

    ""Auch war ich der Meinung, daß Programme, die eine gewisse Komplexität überschritten, nach einem zentralistischen Ansatz verlangen. Ebenso glaubte ich, daß die wichtigsten Programme, worunter Betriebssysteme und sehr große Werkzeuge wie Emacs fallen, wie Kathedralen gebaut werden müssen. Von einzelnen, erleuchteten Künstlern oder einer Handvoll auserwählten Baumeistern hinter gut verschlossenen Türen zusammen gebaut, Stein um Stein (lies Zeile um Zeile), mit keinem Beta-Release, bevor die Zeit nicht endgültig reif ist. Linus Torvalds Entwicklungsstil überraschte mich: Nicht gerade was man eine ehrfurchtsvolle Kathedralen-Vorgehenweise nennen könnte. Die Linux Gemeinde gleicht schon eher einem großen plappernden Basar (...) Die Tatsache, daß die Basar-Entwicklungsmethode zu funktionieren schien, war für mich ein klarer Schock." (Raymond, 1997)"

    Diese Neuerung im Bereich der Entwicklung zog ein völlig neues Wirtschaftsmodell nach sich, das der Vermarktung von Open Source Software (OSS). Ohne dieses Basarverhalten wäre die Entwicklung moderner OSS wahrscheinlich garnicht oder nur schwer möglich.

    Weiterführender Link:Linux - Software-Guerilla oder mehr? Die Linux-Story als Beispiel für eine gesellschaftliche Alternative

    3. Die Zukunft

    Ständige Verbesserung ist das Sinnbild der Computerbranche. Jedoch stehen zur Zeit nur 2 wirklich große und Diskussionsreife Themen zur Debatte, wenn es unmittelbar um Betriebssysteme geht. Dies sind TCPA und Windows Longhorn.
    In der Umgebung der Betriebssysteme tut sich jedoch einiges. So wird zum Beispiel derzeit von Sun Microsystems die Entwicklung des 3-D-Desktops "looking glas" stark vorangetrieben. Die erste Version soll Mitte 2004 erscheinen.
    Diese Produkte sind jedoch nicht explizit wichtig für die Betriebssysteme , weshalb ich nicht näher darauf eingehen werde.
    TCPA
    Schon in Longhorn will Microsoft die Zertifizierung TCPA integrieren. TCPA, welches von Datenschützern auf der ganzen Welt angeprangert wird, soll Raubkopierern und Hackern das Wasser abgraben. Leider ist unklar, in wieweit das TCPA-Konsortium diese Technologie, welche bald schon auf den Prozessoren integriert werden soll, für die Schaffung eines absoluten Marktmonopols nutzen will.

    Funktionsweise von TCPA
    TCPA basiert auf einen Chip, welcher beim booten kontrolliert ob unregistrierte Software und Daten auf dem PC existieren. Damit soll es Raubkopien und unerwüschnte Software wie z.B. Viren erkennen und löschen. Der Nachteil dieser Technologie ist ganz klar: kleine Firmen die sich nicht die Registrierung durch das TCPA-Konsortium leisten können, haben keine Möglichkeit mehr Software zu verkaufen. Somit würden die großen Firmen ihre lästigen kleineren Konkurenten aus dem Weg rämen. Auch Freeware die nicht auf Erfolgsbasis vertrieben wird, hätte keine wahrscheinlich keine Überlebenschance.
    Windows Longhorn
    Microsoft arbeitet an einer neuen Windows-Version, welche die Welt der Betriebssysteme revolutionieren soll. Es basiert auf Windows XP, soll jedoch viele Verbesserungen der Sicherheit, des Dateisystems, Designs und weiterer Themen bringen. Jedoch ist unklar, wann Longhorn erscheinen soll. Derzeit ist das Datum 2008 im Gespräch. Wirkliche Klarheit wird wohl wieder erst beim tatsächlichen Erscheinen von Longhorn herrschen.

    Zitat ( heise.de News vom 28.10.2003 ) über Windows Longhorn:
    "Sicherer und schneller soll der Windows-XP-Nachfolger werden, so die wenig überraschende Ankündigung von Bill Gates auf seiner Eröffnungsrede der Professional Developers Conference (PDC). Ansonsten verteilte Gates einige Informationen über neue Techniken, die Microsoft in Longhorn einführen will: "Avalon" zum Gestalten neuer Bedienoberflächen, "Indigo" als neue Kommunikations- und Webservice-Technik und "WinFS" als Datenbank-basierten Aufsatz auf das Dateisystem NTFS. Die Ankündigungen machen deutlich, dass es Microsoft bei der Konferenz nicht so sehr um neue Funktionen für die Windows-Anwender geht, sondern darum, den Entwicklern einen verbesserten Unterbau des Systems schmackhaft zu machen."

    Somit bieten die Vorraussichten auf Longhorn noch relativ wenig große Neuerungen für Endbenutzer, bis auf die Integration von TCPA, falls dieses System in Europa überhaupt eine Zulassung bekommt.

    4. Zusammenfassung

    Betriebssysteme werden der wichtigste Teil eines Computers bleiben; denn was bringt uns teure Hardware, wenn wir sie nicht steuern können?
    Es deutet sich an, das Sicherheit speziell bei Microsoft ein größeres Thema wird, da der Ruf Microsofts durch die Angriffe der letzten Zeit stark beschädigt wurde. Cybercriminalität wird heute ein immer größeres Problem, das nicht mehr ignoriert werden kann. Nicht umsonst haben Antivirensoftware und Sicherheitsmaßnahmen wie Firewalls hochkonjunktur.

    Weiterführende Links

    Hier sind noch einmal alle oben genannten sowie einige andere wichtige Links aufgelistet.

    kleine Übersicht über einige Linux Distributionen
    Linux - Software-Guerilla oder mehr? Die Linux-Story als Beispiel für eine gesellschaftliche Alternative
    DEC PDP-7
    CP/M
    OS/2
    VMS
    POSIX
    Dynamic DNS
    Dateisysteme
    FreeDOS
    XFree86-Projektes
    KDE-Projekt
    Gnome-Projekt

    Firmen

    Digital Research
    SUSE - große deutsche Linux-Distribution
    Debian
    AT&T
    Microsoft