ubuntuusers.de

4. Oktober 2009

Die erste Test-Version des kommenden Linux-Kernels konnte ich leider nicht gebührend würdigen. Aus diesem Grund finden sich die Links, wo dieser zu beziehen ist, an das Ende dieses Artikels. Es sei allerdings jedem empfohlen, den -rc1 nur auf entbehrlichen Systemen anzutesten, keinesfalls auf einem produktiven Rechner. Dieser Kernel-Rückblick ist, neben vielen anderen interessanten Themen, in der aktuellen Ausgabe von freiesMagazin enthalten.

Linux 2.6.31
Etwas später als in der vergangenen freiesMagazin-Ausgabe angekündigt (siehe „Der August im Kernel-Rückblick“, freiesMagazin 09/2009 [1]) wurde der Kernel 2.6.31 veröffentlicht [2]. Zu den herausragenden Neuerungen zählt die Unterstützung für USB 3.0, was dank der von der Intel-Entwicklerin Sarah Sharp beigesteuerten Treiber für xHCI (Extensible Host Controller Interface) ermöglicht wird (siehe „Der Juni im Kernel-Rückblick“, freiesMagazin 07/2009 [3]). Zwischenzeitlich ist auch Hardware in greifbare Nähe gerückt, die den neuen Standard nutzt, darunter ein Controller [4] sowie eine Festplatte [5].

Fastboot stammt ebenfalls aus Intels Schmiede und soll den Systemstart beschleunigen, indem die Suche und Initialisierung von Geräten und Partitionen sowie der Start von Diensten parallel abgewickelt wird. Die Verfügbarkeit der Kompressionsmethoden LZMA und BZIP2 bringen zwar keinen Leistungs- wohl aber einen Platzgewinn, da hierdurch das kompilierte Kernel-Abbild bis zu 33 Prozent gegenüber der herkömmlichen GZIP-Kompression verkleinert wird.

CUSE (Character Devices in Userspace) ist ebenfalls ein neuer Treiber, der aufbauend auf FUSE (Filesystem in Userspace) die Implementierung zeichenorientierter Geräte im Berechtigungskontext des Anwenders erlaubt. Erstes Beispiel ist die mitgelieferte Umsetzung von OSS Proxy [6], der eine Emulation des veralteten, jedoch noch immer weit verbreiteten, Open Sound Systems darstellt. Besitzer älterer ATI Radeon-Karten werden sich freuen, denn die Unterstützung für das in 2.6.29 eingeführte Kernel Mode Setting wurde für die Chipsätze R1xx, R2xx, R3xx, R4xx und R5xx erweitert, R6xx und R7xx befinden sich noch in Entwicklung. Verbesserungen beim Freigeben von Speicherbereichen sollen verhindern, dass Komponenten wie zum Beispiel verlinkte Bibliotheken, die von noch laufenden Programmen benötigt werden, aus dem Arbeitsspeicher entfernt werden. Dadurch wird ein flüssigeres Arbeiten am Desktop ermöglicht, da die langsameren Zugriffe auf die Festplatte zum Nachladen dieser Komponenten entfallen bzw. auf ein Minimum reduziert werden können.

Con Kolvias
»Supported Features«, von xkcd.com unter CC-BY-NC: http://creativecommons.org/licenses/by-nc/2.5/Ein Comic (siehe rechts) [7] hat den australischen Anästhesisten Con Kolvias dazu inspiriert, einen neuen Scheduler zu entwickeln, der insbesondere Systemen mit bis zu vier Prozessoren oder Kernen - also vorrangig Desktop-Systemen - besonders gute Leistungen zeigt [8]. Der „Brain Fuck Scheduler“ zeigt bei Anwendungen, die mit vier Threads auf einem Vier-Kern-System ausgeführt werden bessere Leistungen, als mit beliebig vielen Threads gestartete Anwendungen mit dem aktuellen CFS (Completely Fair Scheduler). Kolvias, der sich bereits vor zwei Jahren mit dem Scheduler des Linux-Kernels beschäftigte und sich aus der Entwicklergemeinde im Streit über den CFS zurückzog, sieht das Problem darin, dass ein Scheduler nicht allen Anforderungen genügen kann: Ein Scheduler, der auf 4096 CPUs skaliert, kann trotzdem daran scheitern, ein Flash-Video auf einem System mit weniger als vier Kernen im Vollbildmodus flüssig abzuspielen.

Ingo Molnar, Author des von Kolvias angegriffenen Completely Fair Schedulers, hat sich BFS mittlerweile angeschaut, bescheinigt ihm jedoch schlechtere Resultate [9]. Er erachtet BFS als spannenden und wagemutigen Ansatz. Die Priorität sieht auch er bei kleineren Systemen liegend, da 4096-CPU-Systeme eher selten sind und der Scheduler für diese dann auch optimiert würde. In diesem Zusammenhang bietet Molnar Kolvias die Zusammenarbeit an und verspricht, gute Ideen, die BFS liefert, auch zu folgen und in den Mainline-Kernel aufzunehmen.

Hyper-V/Staging-Treiber
Beim Aufräumen seines staging-Zweiges, ein Bereich der Kernel-Code-Verwaltung, der der Aufnahme und Pflege kommender Treiber dient, stolperte Kroah-Hartmann über einige schlecht oder ungepflegte Treiber. „drivers/staging ist KEINE Mülldeponie für toten Code“ beklagte er sich [10] und kündigte an, die nicht mehr gewarteten Treiber wieder aus dem Kernel zu entfernen. Traurig war dabei die Tatsache, dass auch der erst kürzlich von Microsoft freigegebene Treiber für Hyper-V (siehe „Der Juli im Kernel-Rückblick“, freiesMagazin 08/2009 [11]) davon betroffen war. Nachdem mit über 200 Patches der Treiber in eine Form gebracht wurde, die die Aufnahme in 2.6.32 ermöglichen, sollte er schon zu 2.6.33 wieder aus dem Kernel fliegen. Allein das Wiederauftauchen der Microsoft-Entwickler mit neuen Patches [12] nach dieser Ankündigung könnte Hyper-V vor diesem Schicksal bewahren. Für manche der 22 anderen Treiber auf Kroah-Hartmanns Abschussliste haben sich ebenfalls Maintainer gefunden, den verbliebenen wird jedoch der Rausschmiss blühen.

Torvalds: „Linux ist aufgebläht“
Einer Intel-Studie zufolge verliert der Linux-Kernel mit jeder Version etwa zwei Prozent an Geschwindigkeit. Auf der in Portland stattfindenden LinuxCon äußerte Torvalds, dass er den Kernel inzwischen für zu aufgebläht halte. Eine Lösung dafür habe er jedoch nicht [13]. Tatsächlich nimmt das Volumen des Kernel immer weiter zu, wie auch die Studie „Who Writes Linux and Who Supports It“ (siehe „Der August im Kernel-Rückblick“, freiesMagazin 09/2009 [1]) belegt. Dies ist der stetig steigenden Anzahl an Funktionen und Treibern geschuldet, die mit einer ebenfalls größer werdenden Entwicklergemeinde einhergeht. Allerdings sieht Torvalds dies nicht als so großes Problem, da die Stabilität des Kernels gut sei und Fehler rasch beseitigt würden.

Echtzeit-Kernel für Debian
Pengutronix [14], Dienstleister für Embedded-Systeme unter Linux, stellt seit kurzem vorkompilierte Echtzeit-Kernel für Debian zur Verfügung [15]. Diese wurden mit PREEMPT_RT [16], einer Echtzeit-Erweiterung für den Linux-Kernel, modifiziert und sollen Anwendern, die diese Funktionalität benötigen, das eigenhändige Kompilieren des Kernels ersparen. Einen Wermutstropfen gibt es allerdings: Die von Pengutronix bereitgestellten Kernel-Pakete basieren auf dem Vanilla-Kernel und enthalten nicht die Debian-spezifischen Kernel-Patches.

Kernel 2.6.32-rc1
Fast drei Wochen nach Veröffentlichung von 2.6.31 beendete Torvalds das Zeitfenster, in welchem Neuerungen in den nächsten Kernel aufgenommen werden [17]. Der überwiegende Anteil der Änderungen von 2.6.32-rc1 liegen im Bereich der Treiber, gefolgt von Firmware und den Architekturen, wobei bei letzteren die ARM-Architektur stark im Vordergrund steht [18].

Links:
[1] http://www.freiesmagazin.de/freiesMagazin-2009-09
[2] http://ikhaya.ubuntuusers.de/2009/09/10/der-kern-fuer-karmic-2-6-31-1673/
[3] http://www.freiesmagazin.de/freiesMagazin-2009-07
[4] http://www.heise.de/newsticker/meldung/145672
[5] http://www.heise.de/newsticker/meldung/145828
[6] http://userweb.kernel.org/~tj/ossp/
[7] http://xkcd.com/619/
[8] http://www.linux-magazin.de/NEWS/Con-Kolivas-meldet-sich-mit-neuem-Scheduler-zurueck
[9] http://www.linux-magazin.de/NEWS/Ingo-Molnar-testet-neuen-Brain-Fuck-Scheduler
[10] http://lkml.org/lkml/2009/9/3/3
[11] http://www.freiesmagazin.de/freiesMagazin-2009-08
[12] http://lkml.org/lkml/2009/9/10/297
[13] http://www.pro-linux.de/news/2009/14727.html
[14] http://www.pengutronix.de/index_de.html
[15] http://www.pro-linux.de/news/2009/14750.html
[16] http://rt.wiki.kernel.org/
[17] http://lkml.org/lkml/2009/9/27/166
[18] http://www.linux-magazin.de/NEWS/Kernel-2.6.32-geht-in-die-abschliessende-Testphase


Der Kernel 2.6.32-rc1 für Ubuntu im Mainline-Kernel-Archiv:
Das Ubuntu-Kernel-Team stellt ein Archiv mit dem Mainline-Kernel zur Verfügung, der ohne die spezifischen Anpassungen der regulären Ubuntu-Versionen erstellt wird.
Achtung! Die Installation des nicht angepassten Kernels kann die Systemstabilität beeinträchtigen!
Die Pakete 2 und 3 müssen nur installiert werden, wenn Anwendungen vorhanden sind, die die Headerdateien benötigen um z.B. Kernelmodule zu kompilieren. Die Pakete sollten dann in der jeweils aufgeführten Reihenfolge installiert werden. Die Kernel-Quellen werden nicht benötigt.

Architektur i386 (32 Bit):

  1. linux-image-2.6.32-020632rc1-generic_2.6.32-020632rc1_i386.deb
  2. linux-headers-2.6.32-020632rc1_2.6.32-020632rc1_all.deb
  3. linux-headers-2.6.32-020632rc1-generic_2.6.32-020632rc1_i386.deb

Architektur amd64 (64 Bit):

  1. linux-image-2.6.32-020632rc1-generic_2.6.32-020632rc1_amd64.deb
  2. linux-headers-2.6.32-020632rc1_2.6.32-020632rc1_all.deb
  3. linux-headers-2.6.32-020632rc1-generic_2.6.32-020632rc1_amd64.deb

Kernel-Quellen:

 

Seitdem ich mich mit Server-Administration beschäftige gehört bei mir dazu auch zwingend eine ordentliche Backup-Strategie. Die Art und Weise dieser Strategie die ich hier im Folgenden erklären werde, entspricht vielleicht nicht dem Standard wie das in größeren Umgebungen oder von noch professionelleren Leuten gemacht wird, vielleicht komm ich aber doch in die Nähe dessen. Da muss ich ganz ehrlich zu geben, dass ich es nicht weiß! Ich habe mir das Ganze mehr oder weniger selber ausgedacht, viel durch eigene Missglücke gelernt und vieles einfach auch ausprobiert. Wer andere Vorschläge, Verbesserungen hat, wie immer einfach ab damit in die Kommentare oder selber Bloggen und einen Pingback/Trackback schicken!

Nun aber mal genug der Vorrede, los geht’s!

Bei einem Webserver, welchem ich mich hier jetzt widme, kommt es vor allem auf die Daten im /www/ Verzeichnis und die Datenbanken an.

Ich gehe dabei so vor, dass von jeder Website und den gesamten Datenbanken jeden Tag ein Backup gemacht wird und zusätzlich noch einmal im Monat ein gesamtes Backup der Datenbanken und der Web Ordners. Die monatlichen Backups werden dann längere Zeit aufgehoben und die täglichen Backups werden ab einem Alter von 7 Tagen automatisch wieder gelöscht. Dies dient zum einen dazu, dass die täglichen Backups für einen wirklich akuten Fall vorhanden sind, wenn also nun plötzlich eine Website oder Datenbank sich zerstört oder von einem Administrator schwer beschädigt wird, ein aktuelles Backup vor liegt was in sehr kurzer Zeit wieder eingespielt werden kann. Die monatlichen Backups helfen um auch mal ältere Stände parat zu haben und weil ich auch ab und zu mal ältere Projekte wieder ausgrabe oder ähnliches. Alle Prozesse dabei werden durch einfache Prozesse und Cron Jobs erledigt, die ich nochmal in einem extra Artikel angebe und etwas erkläre. Die Backups werden hierdurch erstmal auf dem Server an sich gespeichert, denn wenn der auch mal nen Hänger haben sollte, habe ich ja noch das Backup vom ganzen Server über den Provider. Die tagesaktuellen und monatlichen Backups lade ich ab und zu mal lokal auf meinen PC.


Comments

Artikel von: Disfunctions.de - Das Blog der gnadenlosen Fehlfunktionen!

Backup-Strategie auf dem Ubuntu Server

Ähnliche Artikel:

  1. Cron Jobs auf Ubuntu Server mit Plesk erstellen
  2. Befehle für Backup-Strategie des Servers
  3. Backup-Strategie auf meinem PC
  4. 1und1 Domain auf externen Server weiterleiten
  5. alternativen DNS-Server unter Ubuntu benutzen

bejonet 4. Oktober 2009 13:55

LoG: Spiele

Natürlich muss man auch ohne eine grafische Umgebung nicht auf kleinere Spiele für zwischendurch verzichten. Ein paar Spiele für die Konsole möchten wir euch hier vorstellen.

Pacman

Von Pacman gibt es natürlich auch eine Version für die Konsole. Das Programm heißt pacman4console und kann aus den Ubuntu-Quellen mit

sudo apt-get install pacman4console

Gestartet wird pacman4console. Gespielt wird mit den Pfeiltasten.

Spaceinvaders

Um Spaceinvaders spielen zu können, gibt es das Programm ninvaders. Das Spiel wird mit

sudo apt-get install ninvaders

installiert und auch mit ninvaders gestartet. Das Raumschiff wird mit den Pfeiltasten bewegt und mit der Leertaste geschossen. Ich nehme mal an, das Prinzip von SpaceInvaders ist allen klar, wenn nicht, Ziel des Spiels ist es, alle feindlichen Raumschiffe abzuschießen, bevor sie dich abschießen.

MineSweeper

Freesweep ist MineSweeper für die Konsole. Es kann aus den Ubuntu-Quellen mit

sudo apt-get install freesweep

installiert werden. Gestartet wird ebenfalls mit freesweep Nachdem man die Höhe und Breite des Spielfeldes, die Anzahl der Minen und ein paar andere Einstellungen getätigt hat, startet das Spiel. Gespielt wird mit den Pfeiltasten, mit der Leertaste wird ein Feld aufgedeckt und mit f wird ein Feld als Mine markiert. Wie das Spiel funktioniert, wird spätestens seit WinXP wohl jeder wissen.

TicTacToe

Um TicTacToe auf der Konsole spielen zu können, braucht man das Programm nettoe Das Programm ist in den Quellen verfügbar. Man kann damit TicTacToe gegen den Computer, gegen einen Menschen am gleichen Computer und im Netzwerk spielen. Gespielt wird, in dem man die Koordinaten eingibt.

Vier gewinnt

Dieses Spiel ist nicht in den Quellen zu finden. Stattdessen lädt man es von der Homepage herunter und kompiliert es mit der Befehlsfolge

cp ./4inarow
make
sudo make install

Da es sich um ein Netzwerkspiel handelt, das keine KI zur Verfügung stellt, muss man notgedrungen einen Partner finden, der sich als Gegner zur Verfügung stellt. Einer von beiden muss dann den Server hosten, was in der Konsole mit dem Befehl

4rowserver

funktioniert. Der Mitspieler betritt den Raum über

4inaconsole IP-des-Hosters

man selbst mit

4inaconsole localhost

und das Match kann beginnen! Zur Steuerung reichen die Tasten 1-8 und Enter.

BSD-Games

Gleich eine ganze Sammlung von Minispielen gibt es im Paket bsdgames (Fedora: bsd-games). In 1,5MB Paketgröße stecken eine Fülle an kleinen Konsolenspielchen, die zwar nicht gerade von Umfang zeugen, aber dennoch eine schöne Zwischenspielerei sind, während man z.B. eine kurze Wartezeit hat. Befehle zum Starten von Spielen, die darin enthalten sind (lt. Fedora):

adventure, arithmetic, atc, backgammon, battlestar, bcd, caesar, canfield, cfscores, cribbage, go-fish, gomoku, hunt, mille, mpoly, morse, number, phantasia, pig, pom, ppt, primes, quiz, rain, random, robots, rot13, sail, snake, snscore, teachgammon, bsd-fbg, trek, worm, worms, wump

Danke an DonKrawallo für den TIpp! 4 gewinnt MineSweeper SpaceInvaders Pacman TicTacToe

Ein weiteres Spiel stellen wir in Kürze vor, es bekommt einen eigenen Artikel, da es viel darüber zu berichten gibt ;-) Viel Spaß beim Spielen Gruß Benni und Jonas

Synchronisierungsdienste wie Dropbox oder Ubuntu One sind ja aktuell ein großer Hype. Doch Online-Speicherdienste sind eigentlich ein alter Hut. Was viele gar nicht wissen: Mit einem E-Mail Account bei GMX oder WEB.DE besitzt man 1GB bzw. 100MB kostenlosen Speicherplatz im Internet.

Beide Dienste ähnlichen sich wie ein Ei dem Anderen, kein Wunder WEB.DE wurde ja schon vor Jahren von 1&1, zu denen auch GMX gehört, gekauft. So kann man über ein Webfrontend Dateien hochladen und verwalten, wie auch Daten Dritten freigeben. Das Schöne ist, dass Nautilus über das WebDAV-Protokoll ohne großen Aufwand auf das GMX MediaCenter bzw. das WEB.DE SmartDrive zugreifen kann.

In GNOME könnt Ihr über “Orte -> Verbindung zu Server” zu einer Reihe von entfernten Dateisystemen Verbindung aufnehmen. Via FTP, SSH und eben auch WebDAV könnt ihr auf Freigaben in eurem lokalen Netzwerk oder auch im Internet zugreifen. Im Fall der beiden Mediacenters von GMX bzw. WEB.DE benutzt ihr WebDAV und zwar am besten die verschlüsselte Variante “Sicheres WebDAV (HTTPS)”.

Assistent zum Einbinden enfernter Dateisysteme

Assistent zum Einbinden enfernter Dateisysteme

GMX MediaCenter (1GB Speicherplatz)

Bei GMX müsst ihr als Benutzername unbedingt max.mustermann@gmx.net verwenden. Auch wenn Ihr normalerweise max.mustermann@gmx.de als E-Mail-Adresse benutzt, müsst ihr am Ende das .net setzen. Alternativ könnt Ihr Eure GMX-Kundennummer benutzen.

  • Dienste-Typ: Sicheres WebDAV (HTTPS) zur Not auch “normales” WebDAV
  • Server: mediacenter.gmx.net
  • Benutzername: max.mustermann@gmx.net oder GMX-Kundennummer

WEB.DE SmartDrive (100MB Speicherplatz)

Bei WEB.DE ist die Sache mit dem Benutzernamen klar. Ihr müsst einfach die Daten benutzen, die Ihr auch im Web-Frontend bei WEB.DE zum Einloggen benutzen würdet. Also Email-Adresse ohne @web.de am Ende.

  • Dienste-Typ: Sicheres WebDAV (HTTPS) zur Not auch “normales” WebDAV
  • Server: webdav.smartdrive.web.de
  • Benutzername: max.mustermann

Workaround

In Ubuntu “Jaunty Jackalope” 9.04 mit GNOME 2.26 habe ich festgestellt, dass beim Einloggen über den Dialog “Orte -> Verbindung zu Server” Nautilus behauptet, dass die Zugangsdaten falsch wären, obwohl ich sie definitiv richtig eingegeben hatte. Als Workaround kann man in Nautilus die Tastenkombination Strg+L drücken und die Adresse

davs://mediacenter.gmx.net

eingeben. So spricht man das GMX MediaCenter direkt an. Im darauf erscheinenden Dialog kann man Benutzername und Password eingeben und sich letztendlich auch erfolgreich anmelden.

Alternativ direkt aus Nautilus heraus

Alternativ direkt aus Nautilus heraus

Zwar kann man über diesen Online-Speicher so wie bei Dropbox keine Daten synchronisieren oder ältere Revisionen einer Datei wiederherstellen, doch wer einfach nur Online ein paar Daten ablegen möchte, der ist mit GMX/WEB.DE und WebDAV wahrscheinlich gar nicht so schlecht beraten.
Comments

3. Oktober 2009

Gestern schrieb ich hier schon, wie unsere Backup Strategie auf dem Server funktioniert. Hintergründe und Sonstiges dazu könnt ihr hier lesen! Nun will ich die Befehle in Verbindung mit den Cron Jobs erklären und zeigen wie diese funktionieren und welcher Teil was bewirkt.

Hier erst mal ganz allgemein der von mir verwendete Befehl. Diesen kann man auch direkt in der Konsole nutzen.

tar cvfz /backups/taeglich/domain.de/backup-name_`date +\%Y-\%m-\%d`.tar.gz /var/www/vhosts/domain.de/httpdocs/

Um diesen etwas besser verständlich zu machen willich mal die einzelnen Teile erklären.
Der erste Teil

tar cvfz

ist dafür zuständig ein Archiv zu packen und im grunde auch der eigentliche Befehl, alles was danach folgt sind die Pfadangaben. Bei diesem Befehl übergebe ich tar die Optionen cvfz.
Jeder Buchstabe hat eine bestimmte Option zur Folge:
c – um ein neues Archiv zu erzeugen
v – um eine ausführliche Ausgabe zu bekommen, wichtig im Zusammenhang mit der Mailbenachrichtigung des Cron-Jobs
f – das neue Archiv von c in eine bestimmte Datei schreiben, die anschließend angegeben wird
z – hiermit wird das Archiv zusätzlich mit gzip komprimiert, um das Archiv kleiner zu halten und Speicherplatz zu sparen
Ich setze ganz bewusst nicht auf inkrementelle Backups, bei denen das Backup lediglich aktualisiert wird, da ich die konkreten Stände der letzten Tage immer haben möchte!

/backups/taeglich/domain.de/backup-name_`date +\%Y-\%m-\%d`.tar.gz

Dieser Bereich des Befehls gibt den Speicherort Namen und Dateiformat des Archives an. Ich habe auf dem Server einen ordner /backups/ und darunter die Ordner /monatlich oder /taeglich, je nachdem wo das Archiv reingeschrieben werden soll. Um die einzelnen Projekte/Websites besser trennen zu können, hat jede einen eigenen Ordner in dem Das Backup gespeichert wird.

Hinten das wirrwar mit `date +\%Y-\%m-\%d` ist dafür zuständig das im Dateinamen ein Zeitstempel mit eingefügt wird. Das heißt, die Backup Datei heißt dann im Endeffekt beispielsweise backup-disfunctions_2009-10-03.tar.gz. Die Optionen Y, m, d geben eben das Datum an. Diese könnte man auch noch um Stunden, Minuten und Sekunden erweitern. Dies wird aber bei Backups die nur einmal täglich ausgeführt werden nicht benötigt. Die Backslashs \ vor den Datumsoptionen sind soweit ich weiß zumindest bei Ubuntu nötig, mehr dazu auch nochmal in einem der nächsten Artikel. Das hat mich nämlich eine Zeit lang beschäftigt.

/var/www/vhosts/domain.de/httpdocs/

Der allerletzte Teil bestimmt den Ordner der überhaupt bestimmt ist. Also von welchem das Backup erzeugt wird. Dabei ist es sinnvoll wirklich den Ordner direkt anzusprechen in dem die Website oder was auch immer liegt. Dies ist eine reine Pfadangabe ohne irgendwelche zusätzlichen Optionen, diese wurden alle schon am Anfang dem Befehl übergeben.


Comments

Artikel von: Disfunctions.de - Das Blog der gnadenlosen Fehlfunktionen!

Befehle für Backup-Strategie des Servers

Ähnliche Artikel:

  1. Cron Jobs auf Ubuntu Server mit Plesk erstellen
  2. Cron Jobs und der Syntax Fehler
  3. Backup-Strategie auf dem Ubuntu Server
  4. Backup-Strategie auf meinem PC
  5. [Linux] Truecrypt unter Fedora installieren

Ende Juli veröffentlichte ich das Skript „findgrep“, das mit Hilfe von „find“ und „grep“ Verzeichnisse rekursiv nach Textmustern durchsucht.

Für Lizenz: Bild klicken

Lizenz:Creative Commons Attribution ShareAlike 3.0; (click pic for details)

Der dazu erschienene Artikel (samt Skript für die bash) hat sich inzwischen zu einem der meistaufgerufenen Artikel  dieses Blogs gemausert. Auch bei den Suchanfragen, über die dieses Blog gefunden wird, stehen Ausdrücke wie „find und grep rekursiv“ oft ganz oben auf der Hitliste. Bevor ich das Skript zusammengeschustert hatte, war ich auch eine gute Weile mit Recherche beschäftigt, ohne auf die Schnelle eine passende Lösung zu finden.

Deshalb habe ich das Skript in den letzten Wochen auf meinem Klapprechner  überarbeitet. Das Resultat, „findgrep Version 0.2″ kann weiter unten heruntergeladen werden.

findgrep v4: Verzeichnisse rekursiv nach Text durchsuchen

findgrep v 0.2: Verzeichnisse rekursiv nach Text durchsuchen

Verbesserungen:

  • Die gefilterten Ergebnisse werden ja in einer Textdatei (Variable $SAVEFILE) gespeichert. War diese Datei jedoch unterhalb des Suchverzeichnisses angesiedelt, suchte sich findgrep einen Wolf, da es die bereits gefundenen Ergebnisse erneut als Treffer anzeigte. Dieser Bug wurde behoben.
  • Bisher musste der Nutzer nach jedem Start des Programms den Suchpfad angeben. Zusätzlich hat der Nutzer nun die Möglichkeit, durch „ENTER“ das Standardverzeichnis zu bestätigen (Standard: /var/log)  Zum Ändern einfach die Variable $SEARCHDIR im Skript anpassen.
  • Sowohl bei der Auswahl als auch bei der Präsentation der Ergebnisse wurde das Programm grafisch anschaulicher aufpoliert
  • findgrep zeigt nun die Anzahl der gefundenen Matches an
findgrep: Suche nach

findgrep: Suche nach "warning" in /var/log beendet ...

Download findgrep v 0.2: Bitte hier klicken und mit copy und paste holen. Rechtsklick und „Speichern unter …“ funktioniert nicht.

Das Skript ist für Ubuntu getestet. Manche Versionen von grep kennen die Option „color“ nicht und brechen das Skript mit Fehlermeldung ab. Äh, ach ja: Der nette junge Herr oben bin nicht ich. Ich fand das Bild nur passend zum Thema und habe es auf Wikimedia gefunden.

Alle findgrep Artikel


Wenn man unter Screen die Statusleiste nutzt, ist es oft mühsam jedes mal die Titel zu setzen. Auch wenn man diese fest in der ~/.screenrc definiert, kann man manchmal durcheinander kommen.

Unter Vim gibt es die Möglichkeit, den Namen der aktuellen Datei als Titel für das Screenfenster zu benutzen.
Dafür braucht man nur die folgenden Zeilen zur ~/.vimrc hinzufügen:

if expand('$TERM') == 'screen'
augroup vim_screen
  autocmd!
  autocmd VimEnter,BufWinEnter,WinEnter *
    \ exec "silent! !echo -ne '\\ek" . expand('%:t') . "\\e\\\\'"
augroup END
endif

[UPDATE]Auf dem 256bit Blog beschreibt Christian Brabandt, wie man den Screen-Titel von Vim aus ohne autocommands und mit sehr vielen Einstellungen setzen kann.[/UPDATE]

Ansonsten finde ich es sehr praktisch, wenn in der Statusleiste das aktuelle Verzeichnis steht. Da der komplette Pfad meist sehr lang ist, können mit einem regulären Ausdruck alle Verzeichnisse bis auf das letzte jeweils mit ihren Anfangsbuchstaben abgekürzt werden:

s/(\w).*?\//$1\//g

So wird /home/zimon/.vim/plugin zu /h/z/.v/plugin abgekürzt.

Wem das immer noch zu lang ist, der kann aus dem Namen des letzten Verzeichnisses auch noch die Vokale heraus nehmen (ähnlich wie es dillo in seinen Tabs macht):

s/(\w).*?\//$1\//g; my $end; $x=~s/\/(.)(?:[aeiou]|([^aeiou\/])(?{$end.=$^N}))*\s*$/\/$1$end/

Damit wird /home/zimon/.vim/plugin zu /h/z/.v/plgn

Um in der Bash den Screen-Titel automatisch zu setzen, kann man folgenden Code zu seiner ~/.bashrc hinzufügen. Hier wurde der erste reguläre Ausdruck genutzt (man kann ihn natürlich auch durch den anderen Ausdruck ersetzen, wenn man möchte):

function precmd {
    case "$TERM" in
        screen)
        wd=`perl -e '$x=shift; $x=~ s/(\w).*?\//$1\//g; print $x;' "$PWD"`
        echo -ne "\033k$wd\033\\"
        ;;
    esac
}
PROMPT_COMMAND=precmd

Für zsh User gibt es hier den Code für die ~/.zshrc. In diesem Beispiel wurde der zweite reguläre Ausdruck genutzt:

function precmd {
    if [[ "$TERM" == "screen" ]]; then
    local wd=`perl -e '$x=shift; $ x=~ s/(\w).*?\//$1\//g; my $end; $x=~s/\/(.)(?:[aeiou]|([^aeiou\/])(?{$end.=$^N}))*\s*$/\/$1$end/; print $x;' "$PWD"`
	PR_STITLE=$'%{\ek'$wd$'\e\\%}'
    fi
}

Vielen Dank an Ploppor für den zsh Code und sonstige zahlreiche Unterstützung in letzter Zeit.

Es tut mir leid, dass ich in letzter Zeit nichts geschrieben habe, aber meine Diplomarbeit lässt mir einfach keine Zeit.

2. Oktober 2009

Ich habe, wie vielleicht der ein oder andere weiß, eine leichte Phobie vor Datenverlusten. Das geht wohl darauf zurück, das ich vor einiger Zeit (hier wollte ich eigentlich „früher mal in jungen Jahren“ schreiben, aber was soll ich denn dann sagen wenn ich wirklich mal im gehobenen Alter bin???) mal eine defekte Festplatte hatte, mit welcher all meine Daten weg waren. Professionelle Datenrettung kam mit einem, wie es bei den meisten Schülern üblich ist, geringen Einkommen nicht in Frage. Und so habe ich eben nur die defekte Platte umgetauscht, ich hatte wenigstens noch Garantie, und eine neue bekommen. Da habe ich mal gespürt wie wichtig viele der Daten sind und wie schwierig, teils unmöglich es ist die benötigten Sachen von Freunden usw. wieder zu bekommen. Logisch, da ja im Normalfall keiner all meine Daten mal so bei sich liegen hat. Hoffe ich zumindest. ;)

Aufgrund dieses Ereignis, habe ich seit damals dafür gesorgt, dass der Defekt einzelner Festplatten für mich keinerlei Folgen außer eben defekter Hardware hat. Ich habe seitdem alle Daten auf mindestens 2 Festplatten. Dies schließt Filme, Musik, Bilder, persönliche Daten und vieles mehr mit ein. Dies sind 2 1,5TB Festplatten. Die eine davon ist fest eingebaut im PC, die andere in einem externen Gehäuse. Außerdem liegen die wichtigsten, persönlichen Daten nochmals zusätzlich auf einer Partition meiner Betriebssystemfestplatte und auf einer externen Festplatte. Diese externe Festplatte lagert, im Normalfall sogar nicht einmal bei mir zu Hause, sondern an einem einige Kilometer entfernten Ort. Diese habe ich nur im Worst Case oder eben wenn ich die Daten mal wieder aktualisiere bei mir. Des weiteren habe ich noch einige Dateien in Dropbox liegen. Wer jetzt denkt, an so vielen verschiedenen Orten können beliebige Leute an meine Daten, täuscht sich. Ich habe alle Festplatten weitest gehend sicher verschlüsselt und kein einfaches Passwort dafür verwendet. Auch sensible Daten die in der Dropbox liegen, sind in einem Truecrypt Container gesichert.

Meine Daten synchronisiere ich alle paar Tage oder Wochen je nach Zeit/Lust und Gefühl auf den aktuellsten Stand mit der Software Unison. Diese bietet mir eine schnelle und einfache Funktionsweise unter Ubuntu.

So abgesichert hoffe ich, dass mir nie wieder wichtige Daten abhanden kommen durch technische Defekte. Die Unvorsichtigkeit beim Löschen ist da sicher nochmal ein anderes Thema. ;)

Vielleicht kann dieser Artikel ja dem ein oder anderen von euch helfen die eigenen Backups zu organisieren oder die eigene Backup-Strategie zu überdenken.

PS: Backups von Betriebssystemen fertige ich grundsätzlich nie an, da ich keinerlei Daten auf den Systempartitionen liegen habe und ein aktuelles System mitsamt aller Programme ziemlich schnell wieder neu installiert ist. Zumindest mit Ubuntu und ähnlichen Linux Distributionen geht dies sehr schnell! Und ich installiere mein System eh nach spätestens einem Jahr meistens neu, damit mal wieder frischer Wind und verbuggte Einstellungen bzw. Altlasten raus fliegen.


Comments

Artikel von: Disfunctions.de - Das Blog der gnadenlosen Fehlfunktionen!

Backup-Strategie auf meinem PC

Ähnliche Artikel:

  1. Backupscript
  2. Cron Jobs und der Syntax Fehler
  3. Backup-Strategie auf dem Ubuntu Server
  4. Befehle für Backup-Strategie des Servers
  5. VirtualBox Festplatte vergrößern/verkleinern

Moin liebe Lesergemeinde,

ich mache für gewöhnlich einen großen Bogen um normale Office Software, da diese für mich einfach nur umständlich ist. Deswegen liegt es nahe, dass ich auch meine Briefe in LaTeX verfasse. Dazu gibt es nur eins zu sagen: Nie war Briefe schreiben so einfach!

Im folgenden gibt es eine kurze Einführung in die Welt der Briefe unter LaTeX mit der Briefklasse scrlttr2. Die komplette Dokumentation zu Koma Skript und damit auch zur Briefklasse findet man auf BerliOS zum Download. Dort einfach zur passenden Koma Skript Version die Datei scrguide-….pdf herunterladen. Anmerkung: Die Dokumentation ist ausgesprochen gut, ausführlich und mit vielen Beispielen. Für LaTeX Schreiber ein muss.

So nun zum eigentlichen Thema. Das Grundgerüst für einen Brief besteht aus knapp 20 Zeilen:

test.tex

\documentclass{scrlttr2} % Letter Klasse des Koma-Skripts
\LoadLetterOption{test}
\begin{document}
%% Brief
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\setkomavar{subject}{Mein Grund}
\begin{letter}{
Name Empfänger\\
Adresse\\
PLZ Ort
}
\opening{Sehr geehrte Damen und Herren,}
hiermit üöäß...
\closing{Mit freundlichen Grüßen}
\vskip-5em
\includegraphics[height=4em]{../dokumente/unterschrift.png}
\end{letter}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\end{document}

Gehen wir dieses Gerüst einmal durch. Als erstes wird die LaTeX Klasse scrlttr2 aus dem Koma Skript aufgerufen. Dann werden sämtliche Einstellungen für den Brief geladen. Diese befinden sich in der Datei test.lco. Dazu später mehr.

Nun beginnt das eigentliche LaTeX Dokument. Jeder Brief sollte einen Betreff haben, der wird mit der Koma Variable subject festgelegt. Nun beginnt der eigentliche Brief mit der Anschrift des Empfängers. Mit normalen \\ kann ein Zeilenumbruch hervorgerufen werden. Wichtig ist, dass hier keine Leerzeilen (Absatz) genutzt werden. Mit dem Befehl \opening legt man die Anrede im Brief fest, mit \closing demnach das Ende des Briefes. Zwischen opening und closing kommt der eigentliche Brieftext, den es zu verfassen gilt.

Mit \vskip (Position festlegen) und \includegraphics binde ich meine handschriftliche Unterschrift in das Dokument ein. Mit einer entsprechenden Auflösung sieht das Ganze ausgedruckt sogar wie eine echte Unterschrift aus.

Dann wird nur noch Brief und Dokument beendet. Das wars auch schon. So kann man innerhalb von einer Minute ein Briefgerüst verfassen, dass nach DIN in einer PDF gesetzt wird. Als Zusatz hat man gleich Falt-/Lochmarken sowie eine Rücksendeadresse für Briefumschläge mit Fenster integriert ohne sich um Abstände und irgendwelche anderen Sachen Gedanken zu machen.

test.lco

\ProvidesFile{test.lco}[2009/03/04 lco (Christian Gatzlaff)]
% Pakete
\usepackage{cmap}        % to make the PDF files "searchable and copyable" in pdf viewer
\usepackage[ngerman]{babel}    % deutschsprachig
\usepackage[utf8]{inputenc}    % utf8 encoding
\usepackage[T1]{fontenc}    % Schriftkodierung
\usepackage{lmodern}        % Computer Modern-Schrift (TYPE1-tauglich)
\usepackage{microtype}        % echter Blocksatz
\usepackage{graphicx}
\usepackage{xcolor}
\usepackage{pdfpages}        % Einbinden von PDF Seiten aus PDF Dokument
\usepackage{fixltx2e}        % Verbessert einige Kernkompetenzen von LaTeX2e
\usepackage{ellipsis}        % Korrigiert den Weißraum um Auslassungspunkte
\KOMAoptions{%
foldmarks=true,
backaddress=true,
fromphone,
fromemail,
enlargefirstpage=true,
paper=A4,    %
fontsize=12pt,    %
fromalign=left,    %
draft=false    %
}
\setkomavar{fromname}{Vorname Nachname}
\setkomavar{fromaddress}{Irgendwo 35\\
02635 Im Nirgendwo}
\setkomavar{fromphone}{03845945097}
\setkomavar{fromemail}{test@noaddress.de}
\renewcommand*{\raggedsignature}{\raggedright}
\setkomavar{place}{Im Nirgendwo}
%\@addtoplength[-1]{toaddrvpos}{20mm}
%\@addtoplength[-1]{refvpos}{20mm}

Das ist nun die text.lco, wenn man so will die Konfigurationsdatei für eigene Briefe. Hier kommen alle Einstellungen rein, die man in allen Briefen nutzen will. Neben den hier gezeigten Daten können natürlich auch ganze Briefköpfe, Firmenlogos, zusätzliche Daten etc. eingefügt werden (wichtig für Geschäftsbriefe in einem Corporate Design).

Um hier die wichtigsten Einstellungen zu erklären. Mit \ProvidesFile legt man fest um welche Datei es sich handelt, wie sie heißt, wann sie geschrieben wurden und wer der Autor ist. Der nächste Abschnitt bindet die Pakete ein, die man für seine Briefe benötigt. Hier eine kleine Auswahl, die ich nutze.

Der Abschnitt \KOMAoptions legt generelle Briefeinstellungen fest, so zum Beispiel Faltmarken, die Anzeige von verschiedenen Adresselementen, etc.

Mit \setkomavar werden die persönlichen Daten festgelegt, diese erscheinen dann in jedem Brief. Anmerkung: natürlich können auch für jeden Brief manuell diese Angaben überschrieben werden. Diese Angaben sind eigentlich selbsterklärend.

Die Zeile \renewcommand setzt den Namen unter der Unterschrift linksbündig. Lässt man diesen Befehl weg, wird der Name eingerückt (hier kann natürlich jeder für sich entscheiden, was er mag). Die Variable place, setzt neben das aktuelle Datum in Brief noch die Ortsangabe.

Die beiden letzten Zeilen sind auskommentiert. Mit diesen kann man, wenn der Briefinhalt nicht auf eine Seite passt, jedoch nur wenige Zeilen auf der nächsten Seite sind, spielen, um die Zeilen auch noch auf die erste Seite zu holen. Wenn diese Abstandsänderungen nicht gebraucht werden, kann man sie auch löschen.

So das wars, ich hoffe ich konnte euch die Einfachheit des Briefeschreibens unter LaTeX etwas näher bringen. Wenn man einmal seine Vorlage zusammen hat, kann man so schnell Briefe schreiben, wie sonst kein anderer. Im Hauptdokument lassen sich übrigens auch mehrere Briefe verfassen, indem man einfach nach dem Schließen der letter-Umgebung eine neue letter-Umgebung aufmacht.

Achja aussehen tut die PDF ohne auch nur einen Satz Inhalt geschrieben zu haben wie folgt:

test

Hi werte Ubuntuverse LeserInnen!

Ich melde mich zurück mit einem Artikel über Ubuntu One, einem Client, der es ermöglicht deine privaten Daten mit anderen (deiner) Ubuntu Maschinen zu sichern, auszutauschen und zu synchronisieren. Ubuntu One, aus dem Hause Canonical, ist ähnlich wie DropBox, allerdings derzeit nur für Ubuntu Rechner geplant, DropBox ist sowohl für Linux als auch für Windows und Mac verfügbar. Ein weiterer kleiner Nachteil ist, dass Ubuntu One erst ab Jaunty Jackalope verfügbar ist, richtig intergeriert wird es aber erst ab der kommenden Release Karmic Koala. DropBox ist für Ubuntu bereits ab der Version Hardy Heron verfügbar.

Ubuntu One ist derzeit noch in der Beta-Phase, und noch dementsprechend buggy.

Für Ubuntu One brauchst Du einen Launchpad Account, falls Du noch keinen hast gehe zu www.launchpad.net und melde dich an.
Danach gehe zu one.ubuntu.com und lade Dir das ppa deb-file für deine sources.list herunter.

Nun solltest Du nochmal deine sources updaten mit apt-get update und apt-get upgrade.

Zu guter letzt musst Du noch den Client installieren, apt-get install ubuntuone-client-gnome

Also jetzt kannst Du bereits loslegen, am besten starte den Ubuntu One client über Orte –> Ubuntu One (oder /home/user/ubuntuone)

oder starte es über die Konsole: ubuntuone-client-applet

Viel Spaß, bei Fragen oder Problemen, bitte einfach posten!
Theresa

Share/Bookmark

Vor ein paar Tagen bin ich auf eine Möglichkeit gestoßen das Aussehen von GDM auch mit grafischen Tools einstellen zu können. Man muss den “sudo”-Befehl nur um den Befehl “dbus-launch” ergänzen.

Um z.B. den grafischen Gconf-Editor zu starten, muss nur folgender Befehl eingegeben werden :

sudo -u gdm dbus-launch gconf-editor

Den normalen Erscheinungsbild-Einstellungsdialog kann man per folgendem Befehl aufrufen :

sudo -u gdm dbus-launch gnome-appearance-properties

Die dabei erscheinende Fehlermeldung kann man ignorieren.

Ich verwende Thunderbird als Mail-Client und habe bislang immer Thawte-Zertifikate zum Signieren und Verschlüsseln verwendet. Da Thawte seine Dienste aber zunkünftig nur noch gegen Bezahlung anbieten wird, wechsle ich auf OpenPGP.

Ein Schlüsselpaar konnte ich sehr leicht erzeugen. Als ich dann versucht habe, ein passendes Widerrufszertifikat zu erstellen, meldete Thunderbird:

Das Widerrufszertifikat konnte nicht erzeugt werden. Ein unbekannter Fehler ist aufgetreten.

Die Ursache konnte ich nicht finden…
…jedenfalls so lange nicht, bis ich versucht habe, das Schlüsselpaar auf meinem zweiten Rechner zu importieren. Hier meldete Thunderbird dann:

Speichern der Schlüssel fehlgeschlagen: No such file or directory.

Und siehe da: Thunderbird verschluckt sich an Ordnern und Key-Dateien, die Umlaute enthalten.
Ich habe die Schlüssel (die ich im Ornder “backup/schlüssel” hinterlegt hatte) also auf den Desktop gelegt und konnte so erfolgreich importieren. Auch die Erzeugung des Widerrufszertifikat läuft reibungslos ab, wenn im Pfad/Dateinamen keine üöä’s enthalten sind.

Das “Problem” mit den Umlauten tritt übrigens auch dann auf, wenn ein Mail-Anhang mit OpenPGP signiert/verschlüsselt werden soll, der Umlaute im Dateinamen enthält.

PS: Liebe Grüße an den Planeten, und nochmals herzlichen Dank für die Aufnhame…

Ich verwende Thunderbird als Mail-Client und habe bislang immer Thawte-Zertifikate zum Signieren und Verschlüsseln verwendet. Da Thawte seine Dienste aber zunkünftig nur noch gegen Bezahlung anbieten wird, wechsle ich auf OpenPGP. Ein Schlüsselpaar konnte ich sehr leicht erzeugen. Als ich dann versucht habe, ein passendes Widerrufszertifikat zu erstellen, meldete Thunderbird: `Das Widerrufszertifikat konnte nicht erzeugt werden. Ein unbekannter Fehler ist aufgetreten.` Die Ursache konnte ich nicht finden… …jedenfalls so lange nicht, bis ich versucht habe, das Schlüsselpaar auf meinem zweiten Rechner zu importieren.

Ich bin neulich mal wieder auf Mozilla Weave, dem Synchronisationsdienste von Mozilla für Firefox und Fenec, gestoßen. Ende September hat Mozilla die neue Version 0.7 veröffentlicht und seit meinem ersten Test hat sich Weave ganz nett gemausert.

Das Add-On für den Firefox verschlüsselt Bookmarks, History sowie einige Einstellungen und lädt die Informationen auf einen von Mozilla bereitgestellten Weave-Server hoch. Danach kann man weitere Rechne an den Weave-Account koppeln und so Bookmarks und Co. synchronisieren.

Durch die clientseitige Verschlüsselung kann Mozilla nicht auf die hochgeladenen Daten zugreifen. Wer Mozilla nicht traut, der kann sich einen eigenen Weave-Server aufsetzen, was leider alles andere als ein Kinderspiel ist. Die Daten via FTP oder Webdav auf einen eigenen Webserver zu laden ist leider nicht möglich.

Mozilla Weave

Mozilla Weave

Auf den ersten Blick ist Weave ganz nett. Das in den Browser integrierte Frontend ist gut gestaltet und man kann auswählen was alles synchronisiert werden soll. Ist diese Auswahl jedoch einmal getroffen, so lässt sich diese jedoch nicht mehr ändern ohne alle Daten auf dem Weave-Account zu löschen. Ebenfalls konnte ich nicht herausfinden, wie ich meine Daten automatisch beim Browserstart oder -Ende synchronisieren lassen kann. So muss man den Sync immer von Hand anstoßen.

Die bessere (wenn auch proprietäre) Lösung ist in meinen Augen nach wie vor xmarks. Zwar werden die Bookmarks bei xmarks für den Anbieter einsehbar gespeichert (xmarks erlaubt sich sogar die Daten zu verarbeiten, so lange man dies xmarks nicht nachträglich verbietet), doch alternativ kann man xmarks mit einem eigenen Webdav- oder FTP-Server benutzen und somit die Weiterverarbeitung der eigenen Daten umgehen.


Comments

Es wird Herbst und neben dem Release von openSUSE 11.2 Fichte steht auch im Oktober das Release der Ubuntuversion 9.10 Karmic Koala an. Für dieses Releas steht nun eine BEtaversion zum Testen zur Verfügung. Neben der Desktop- und Servervariante, wird auch der Netbook-Remix erneuert. Natürlich erreichen damit auch die anderen Distributionen der Ubuntu-Familie Kubuntu, Xubuntu, Edubuntu, Ubuntu Studio, und Mythbuntu damit Betastadium.

Für die Desktopvariante ist die wesentlichste Änderung Gnome 2.28 aber auch das Ubuntu Software Center zum hinzufügen und entfernen von Software kommt neu hinzu. Die Serverdedition hingegen integriert eine einfache Installation der Ubuntu Enterprise Cloud-Lösung mit Eucalyptus. Mehr der Neuerungen gibt es in der Releaseankündigungsmail

Neulich erlaubte ich mir einen Ausflug zu OpenSolaris. Dabei nutzte ich die Desktop-Variante 2009.6, die es auch als Live-CD gibt, ab welcher das System direkt installiert werden kann. OpenSolaris ist ein quelloffenes Unix-System, das allerdings unter einer etwas restriktiveren Lizenz steht, als beispielsweise GPL. Common Development and Distribution License nennt sich diese und ist von der OpenSource-Gemeinde akzeptiert. Bei OpenSolaris kommt Gnome zum Einsatz, KDE wäre jedoch auch möglich. Seltsamerweise ist OpenOffice nicht standardmässig vorinstalliert – vielleicht aus Platzgründen -, eine nachträglich Installation ist jedoch einfach über die Paketverwaltung via Terminal oder mittels der grafischen Oberfläche möglich.

Installation OpenSolaris

Ich installierte OpenSolaris einerseits in einer virtuellen Instanz mittels der VirtualBox auf einem Windows-Rechner und direkt auf die Hardware meines ThinkPad R61. Beide Installationen verliefen relativ einfach, aber zäh in der Geschwindigkeit. Bei der virtuellen Installation musste ich für die Soundunterstützung noch etwas nachhelfen:

Die Audioeinstellungen müssen auf ICH AC97 gestellt sein, dann muss in der virtuellen Maschine folgendes im Terminal befohlen werden:

$ pfexec bash
# update_drv -a -i '"pci8086,2415"' audio810

Danach Gnome neu starten (ab- und wieder anmelden) und somit läuft auch der Sound. Ansonsten hatte ich keine grösseren Herausforderungen zu bestehen, ausser, dass die Repositories sehr wenige Anwendungen anbieten. In diesem Bereich war ich ziemlich enttäuscht. Was mir fehlt, sind beispielsweise diese Anwendungen oder Alternativen dazu:

Audacity wird wohl demnächst auf OpenSolaris portiert werden. Die genannten Anwendungen lassen sich sehr wahrscheinlich allesamt selbst zusammenschustern, damit sie auf OpenSolaris laufen. Die Zeiten sind aber für mich definitiv vorbei. Ich möchte den Rechner als Werkzeug nutzen und nicht damit spielen oder ihn zum Selbstzweck degradieren. Die Applikation wünsche ich mir deshalb in einem Repository, ab dem sie installiert und sauber aktualisiert werden können.

OpenSolaris sehe ich als eine Mischung zwischen einem freien Betriebssystem und einem Kommerziellen. Es gibt beispielsweise Codecs, welche nicht frei sind und Geld kosten. OpenSolaris erscheint mir recht stabil, läuft aber gesamthaft gesehen deutlich langsamer als ein Ubuntu oder Debian beziehungsweise Fedora auf derselben Hardware.

OpenSolaris

Die Bedienung erachte ich als bequem und intuitiv; kennt man Gnome, ist sie ohnehin bekannt. Die Paketverwaltung ist einfach, auch per Konsole zu bedienen und die Nähe zum V-System ist wohl ebenfalls ein Vorteil im Bereich der Stabilität. Als Linux-User muss man nicht sehr viel Neues lernen, um ein Unix-System oberflächlich bedienen zu können.

OpenSolaris ist aber dennoch kein System für mich, da mir einige Applikationen fehlen. Ich meine, dass es auch nicht unbedingt DAS Unix-System für Null-Acht-Fünfzehn-User wie ich einer bin, ist, sondern wohl eher im kommerziellen Bereich oder bei speziellen Anwendungen zum Einsatz kommt. Dennoch war der Ausflug spannend und lehrreich!

Ähnliche Artikel

1. Oktober 2009

In letzter Zeit habe ich mich sehr oft mit ESXi beschäftigt. Dabei bin ich über ein zwei sehr hilfreiche Tipps gestolpert.

Einer der besten Tipps ist der SSH-Zugriff. Dieser ist zwar nicht offiziell unterstützt, ist aber eine in ESXi integrierte Funktion, es sind also keine weiteren Installationen nötig.

Um SSH zu aktivieren muss man zuerst in eine Konsole wechseln. Dies geht wie unter Linux mit ALT + F1. Im Gegensatz zu einem normalen Linux ist hier nur eine Konsole aktiv und nicht alle 6.

Nun folgt der schwierigste Part :)

Man muss blind und ohne Rückmeldung das Wort “unsupported” und das eigene Passwort eintippen.

Ab nun hat man eine normale Konsole:

~ #

Nun muss man in der inetd.conf SSH aktivieren. Dazu öffnet man diese in einem Editor,

vi /etc/inetd.conf

suchen den Eintrag

#ssh

und entfernt die Rauten wodurch bei der Zeile der Kommentar entfällt. Nun heisst es den physikalischen Server neustarten und man kann von nun an per SSH zugreifen.

Nun kann man sich per SSH alle VM’s ausgeben lassen,

vim-cmd vmsvc/getallvms

einzelne VM’s starten

vim-cmd vmsvc/power.on ID

oder den aktuellen Status abfragen.

vim-cmd vmsvc/power.getstate ID

Es gibt sicher noch unzählige mehr, aber ich denke das sind mal die wichtigsten :)

Einen weiteren Tipp, ist die Möglichkeit mehrere VMs automatisch mit dem Serverstart zu starten. Für mich ist diese Funktion sehr nützlich da ich meinen Server per WOL boote, wenn ich ihn brauche.


Heute wurde endlich Amarok 2.2 “Sunjammer” (stable) veröffentlicht. Unter Ubuntu 9.10, welches Ende des Monats erscheint, wird diese neue Version bereits enthalten sein.

Möchte man schon jetzt unter Ubuntu 9.04 (Jaunty Jackalope) in den Genuss der aktuellsten Nightly-Version (Entwicklerversion, welche alle 24 Stunden aktualisiert wird) kommen, kann man sie wie folgt über die Fremdquelle Project Neon installieren (Quelle):

  • Fremdquelle Neon hinzufügen:
sudo sh -c "echo 'deb http://ppa.launchpad.net/project-neon/ppa/ubuntu jaunty main' >> /etc/apt/sources.list"
  • Schlüssel importieren:
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 0F7992B0
  • Paketliste aktualisieren und Nightly-Version installieren:
sudo apt-get update && sudo apt-get install amarok-nightly

Es kann eigentlich nicht viel schief gehen, da die Nightly-Version parallel zum evtl. bereits installierten Amarok installiert wird.

UPDATE: Amarok 2.1 aus den Paketquellen unter Jaunty

Durch meine gute Platzierung bei Google finden nun auch einige Leute hierher, die einfach nur den normalen Amarok installieren wollen (aus den offiziellen Paketquellen von Ubuntu).

Möchte man dies im Terminal erledigen, kann man folgenden Befehl verwenden:

sudo apt-get install amarok

Eine gute Anleitung, wie man Programme unter Ubuntu installiert, findet man im Wiki von ubuntuusers.de.

UPDATE: Amarok Nightly derzeit nicht für Karmic

Amarok Nightly gibt es derzeit offenbar leider nicht für Ubuntu 9.10 (Karmic Kocala).

UPDATE: Neueste Version aus dem Kubuntu-PPA

Alternativ kann mach auch das PPA von Kubuntu verwenden, um die jeweils aktuelle Amarok-Version zu erhalten. Dabei ist jedoch zu beachten, dass nicht nur Amarok aktualisiert wird, sondern auch sämtliche weitere KDE-Programme!

Um das PPA hinzuzufügen, einfach wie folgt vorgehen (Quelle 1, 2) (karmic ggf. durch die entsprechende Ubuntu-Version ersetzen):

echo "deb http://ppa.launchpad.net/kubuntu-ppa/ppa/ubuntu karmic main" | sudo tee -a /etc/apt/sources.list
echo "deb http://ppa.launchpad.net/kubuntu-ppa/backports/ubuntu karmic main" | sudo tee -a /etc/apt/sources.list
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 2836CB0A8AC93F7A
sudo apt-get update && sudo apt-get upgrade

Comments
OTR-Verwaltung für Ubuntu

OTR-Verwaltung für Ubuntu

Online Videorekorder sind eine schöne Sache und funktionieren erstaunlich gut. Der von mir genutzte Dienst OnlineTVRecoder.com spuckt eure Aufnahmen als otr.key File aus, welches anschliessen mit der passenden Software dekodiert werden will. Aufnahmen aus dem Fernseh enthalten, je nach Sender, mehr oder weniger viel Werbung, diese möchte man natürlich los werden. Entweder schneidet man sich diese selbst heraus, oder man nutzt eine Cutlist. Erste Anlaufstelle ist hier cutlist.at, dort kann man sich die Listen direkt für die entsprechende Aufnahme heraussuchen und als AVIDemux Projekt laden.

Es geht allerdings noch viel einfacher. Das Programm OTR-Verwaltung ist für Ubuntu verfügbar – es erledigt alle Schritte innerhalb einer Oberfläche und in einem Rutsch.

Ein paar kleine Voraussetzungen müssen erfüllt sein.

  • Ihr braucht den offiziellen Dekoder von OnlineTVRecorder.com, den Pfad zu diesem tragt ihr später in der OTR-Verwaltung ein.
  • AVIDemux sollte installiert sein: “sudo apt-get install avidemux”
  • Das Programm OTR-Verwaltung herunterladen und installieren (Doppelklick auf die heruntergeladene Datei oder “sudo dpkg -i otr-verwaltung_0.7.2-1_all.deb”

Das war es dann auch schon. Das Programm findet man ab sofort im Menü und kann es von dort starten. Ich hab ein kleines Video gemacht, in dem ihr sehen könnt, wie schnell und einfach die aufgenommene Datei, die ihr von OnlineTVRecoder.com heruntergeladen habt, dekodiert und fertig geschnitten, sowie umbenannt ist.

Video gibt es auf der nächsten Seite, falls ihr nicht direkt im Artikel gelandet seid.


Bei Vimeo gibt es die HD Version!

Nach 14 Wochen harter Arbeit ist heute eine neue stabile Version der beliebten Musik-Wiedergabesoftware Amarok erschienen. Neben vielen Fehlerkorrekturen bringt diese Version auch Funktionen die bereits aus der 1.4er Serie bekannt sind.

Das Amarok LogoSo kann zum Beispiel wieder eine externe MySQL Datenbank verwendet oder eine Wiedergabeliste nach Belieben sortiert werden. Auch lassen sich jetzt wieder Musik CDs vom Laufwerk aus abspielen und in die Musik Sammlung importieren.

Aber nicht nur Altes wurde hinzugefügt, sondern auch einige neue Funktionen. So sucht das Video-Applet automatisch nach passenden Videos auf YouTube und das Bilder-Applet nach passenden Bildern auf in den Verzeichnissen von flickr. Der Großteil der Oberfläche lässt sich nun an die eigenen Bedürfnisse anpassen, damit ist es möglich das Interface im – vielleicht sogar gewohnten -  1.4er-Design erstrahlen zu lassen.

Insgesamt wurden in den letzten drei und ein halb Monaten 654 Fehler behoben, 101693 neue Zeilen Code geschrieben und 73774 Zeilen entfernt.

Amarok 2.2 befindet sich in den Debian/sid Paketquellen oder kann als Source-Tarball von der offiziellen Seite heruntergeladen werden.

Weiterführende Links


Comments

Heute wurde endlich Amarok 2.2 "Sunjammer" (stable) veröffentlicht. Unter Ubuntu 9.10, welches Ende des Monats erscheint, wird diese neue Version bereits enthalten sein.

Möchte man schon jetzt unter Ubuntu 9.04 (Jaunty Jackalope) in den Genuss der aktuellsten Nightly-Version (Entwicklerversion, welche alle 24 Stunden aktualisiert wird) kommen, kann man sie wie folgt über die Fremdquelle Project Neon installieren (Quelle):

  • Fremdquelle Neon hinzufügen:
sudo sh -c "echo 'deb http://ppa.launchpad.net/project-neon/ppa/ubuntu jaunty main' >> /etc/apt/sources.list" 
  •  Schlüssel importieren:
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 0F7992B0
  •  Paketliste aktualisieren und Nightly-Version installieren:
sudo apt-get update && sudo apt-get install amarok-nightly

Es kann eigentlich nicht viel schief gehen, da die Nightly-Version parallel zum evtl. bereits installierten Amarok installiert wird.

UPDATE: Amarok 2.1 aus den Paketquellen unter Jaunty

Durch meine gute Platzierung bei Google finden nun auch einige Leute hierher, die einfach nur den normalen Amarok installieren wollen (aus den offiziellen Paketquellen von Ubuntu).

Möchte man dies im Terminal erledigen, kann man folgenden Befehl verwenden:

sudo apt-get install amarok

Eine gute Anleitung, wie man Programme unter Ubuntu installiert, findet man im Wiki von ubuntuusers.de

UPDATE: Amarok Nightly derzeit nicht für Karmic

Amarok Nightly gibt es derzeit offenbar leider nicht für Ubuntu 9.10 (Karmic Kocala).

UPDATE: Neueste Version aus dem Kubuntu-PPA

Alternativ kann mach auch das PPA von Kubuntu verwenden, um die jeweils aktuelle Amarok-Version zu erhalten. Dabei ist jedoch zu beachten, dass nicht nur Amarok aktualisiert wird, sondern auch sämtliche weitere KDE-Programme!

Um das PPA hinzuzufügen, einfach wie folgt vorgehen (Quelle 1, 2) (karmic ggf. durch die entsprechende Ubuntu-Version ersetzen):

echo "deb http://ppa.launchpad.net/kubuntu-ppa/ppa/ubuntu karmic main" | sudo tee -a /etc/apt/sources.list
echo "deb http://ppa.launchpad.net/kubuntu-ppa/backports/ubuntu karmic main" | sudo tee -a /etc/apt/sources.list
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 2836CB0A8AC93F7A
sudo apt-get update && sudo apt-get upgrade
Die Plesk Übersicht

Die Plesk Übersicht

Hier hatte ich geschrieben das wir auf einen neuen Server umgestiegen sind. Dieser läuft bekanntlich bei Strato. Da Strato standardmäßig die Ubuntu Distributionen auch mit Plesk bereitstellt und ich dieses eh mal ausprobieren wollte, nutzen wir momentan eben Plesk auf Ubuntu Server. Vorher habe ich auf dem alten vServer Webmin benutzt. Um es direkt Vorweg zu nehmen, Plesk und Webmin unterscheiden sich sehr stark. Plesk ist sehr durch designet und hat eine meist gut durchdachte GUI. Webmin hat nicht eine so arg stylishe GUI, ist aber dafür viel funktionaler und teilweise einfacher zu handhaben. Und natürlich auch Open-Source, was Plesk leider nicht ist.

Trotzdem bin ich recht zufrieden mit der Entscheidung diesmal Plesk zu verwenden, da diesmal ja auch Lukas und noch der ein oder andere Zugriff auf bestimmte Bereiche mit seinen Domains usw bekommen soll, was mit Plesk eben echt komfortabel geht.

Außerdem ging es zumindest mir so, dass die Einarbeitungszeit und Übersichtlichkeit bei Plesk weit besser ist als bei Webmin.Wer also eher was kleines mit dem eigenen Server vor hat bzw. auch Kunden oder ähnliche direkt Zugriff zu Webmail, Datenbanken und Domainverwaltung geben will, der kann das mit Plesk sehr komfortabel machen. Wer wirklich mehr damit vorhat, bzw. mehr auf Konfigurierbarkeit setzt ist mit Webmin besser beraten. Wobei ich mittlerweile sehr viel über die Konsole mache, weils schneller geht und vor allem oft auch genauer! Und ich dann auch genau weiß was passiert und nicht schauen muss was nun alles verändert wurde.

Plesk

Plesk


Comments

Artikel von: Disfunctions.de - Das Blog der gnadenlosen Fehlfunktionen!

Plesk – ein anfänglicher Erfahrungsbericht

Ähnliche Artikel:

  1. Launchpad: Ausblick auf die nächsten 6 Monate
  2. Cron Jobs auf Ubuntu Server mit Plesk erstellen
  3. Cron Jobs und der Syntax Fehler
  4. Serverumzug erfolgreich abgeschlossen
  5. Piwik – Erfahrungsbericht

ball

Tuxtux-Podcast gibt es weiterhin auch unter neuer Regierung. Diesmal geht es vor allem um Desktop-Hintergründe und Desktop-Umgebungen, ich freue mich über Tuxtux-Verstärkung, verlese Feedback sogar auf Englisch und zwar im doppelten Sinne. Was fehlt? Genau, die Shownotes im Detail:

News

Blogschau

Tutorials

Feedback

  • Brot
  • Bart
  • Max

mehr Feedback gerne per:

Podcast abonnieren:

pixelstats trackingpixel
Bugies Blog 1. Oktober 2009 11:43

CCTV in England

Fast einen Monat ist der letzte Artikel her und dieser hier beschäftigt sich nicht mal mit Software oder Linux? Autsch! Und trotzdem in der ubuntuuseres.de-Kategorie?1!
Damit habe ich schon mal einen Kommentar vorweggenommen. :-D

Zugegeben, dieser Artikel ist seeeehr off-topic, aber so ist das in meinem Blog. :-) Und wegen dem Thema “CCTV-Überwachung”, das ich anschneide, setze ich als Kategorie auch mal die ubuntuusers.de-Kategorie. Vielleicht interessiert es den ein oder anderen. Sorry an die anderen, ignoriert diesen Non-Linux-Artikel bitte einfach.

Vor kurzem war ich eine Woche mit meiner Freundin in England, sie arbeitet dort die nächsten 8 Monate als Assistant Teacher. Wen das Thema interessiert, kann mal bei ihrem Blog vorbeischauen. Gewohnt haben wir in Manchester, haben aber auch mal in Liverpool, Blackpool und York vorbeigeschaut. Das Beatles-Museum ist auf jeden Fall den Eintritt wert und man sollte auch auf jeden Fall mal einen Blick in The Cavern Club werfen. Mit ein klein wenig Glück steht gerade jemand auf der Bühne und will es den Beatles nachmachen. :-) Blackpool (warum muss ich sofort an “Sündenpfuhl” denken?) war… öhm… beeindruckend. Habe noch nie so viele Kinder-Spielhöllen gesehen. Aber am Meer ist es natürlich immer schön.

Das Essen dort finde ich übrigens nicht sooo schlecht. Ok, die Würstchen beim Frühstück sind nicht essbar, aber der Rest ist durchaus ok bis gut. Das war unser erstes Full English Breakfast:

breakfast

Was mich erstaunt hat war, wie schnell man sich an die ständige Videoüberwachung “gewöhnt”. Hintereingänge von der Post werden zum Beispiel mit drei Kameras überwacht:

Blackpool_Post

Jedes Restaurant, so ziemlich jede Ecke in den Städten ist überwacht. Die ersten beiden Tage ist mir das oft aufgefallen, danach so gut wie gar nicht mehr, was ich ziemlich erschreckend finde. Was mir dummerweise erst jetzt einfällt: ich habe vergessen zu schauen, ob auch in Kirchen Kameras hängen. Ok, bei uns gibt es das ja bereits.

Ach, ihr kennt bestimmt diese Aufkleber “Diese Toilette wird videoüberwacht“. Im Yates in England könnt ihr das haben (rechts oben):

cctv_toilette

Ich habe mir diese Kamera näher angeschaut, sie blickt Richtung Spiegel (nicht im Bild, parallel zu den Pissoirs). Das heißt man wird “nur” von hinten beim Pinkeln gefilmt. Für alle Klugscheißer, die jetzt mit Ein- und Ausfallswinkel kommen: die Kamera lässt sich auch drehen. Hier ein ähnliches Modell. Und dann geht’s im Zweifel auch von vorne/oben.

Ach und die hatten doch tatsächlich schon ein Haus für mich gebaut. :-D

nexus_house