ubuntuusers.de

11. Oktober 2011


Ein weiterer Artikel in meiner SparkleShare-Serie. Hier noch einmal eine Übersicht über die (geplanten) Themen der Serie:

Nachdem es im vorigen Artikel um die Konfiguration eines eigenen SparkleShare-Servers ging, möchte ich also nun zeigen, wie die Daten mit Hilfe von GnuPG vor dem Upload verschlüsselt und natürlich beim Herunterladen entschlüsselt werden können.

Dabei möchte ich zunächst erwähnen, dass für die Verschlüsselung nicht zwingend ein eigener Server betrieben werden muss. Das wird klar, wenn man erkennt, dass der Server mit der Verschlüsselung überhaupt nichts zu tun hat – ja noch nicht einmal etwas davon mitbekommt.

Nebenbei bemerkt hat auch der SparkleShare-Client nichts mit der Verschlüsselung zu tun. Die Ver- und Entschlüsselung wird rein innerhalb von GIT verwaltet.

GnuPG

Für die Verschlüsselung wird GnuPG zuständig sein. Außerdem werden wir den GPG-Agent benutzen, der zumindest dann wichtig ist, wenn man einen GPG-Schlüssel mit Passphrase benutzt. Dann muss man nämlich nicht immer wieder sein Kennwort eingeben, um den Schlüssel verwenden zu können.

Installation

Mit folgendem Kommando wird also zunächst einmal sichergestellt, dass die benötigten Pakete installiert sind. GnuPG sollte bei Ubuntu normalerweise vorinstalliert sein, der Agent aber nicht.

sudo apt-get install gnupg gnupg-agent

GPG-Key erstellen

Um ein Schlüsselpaar zu erzeugen, wird das folgende Kommando verwendet:

gpg --gen-key

Dabei werden einige Fragen gestellt, bei denen man normalerweise größtenteils die vorbelegte Auswahlmöglichkeit übernehmen kann. Alle wissenswerte Informationen findet ihr aber im ubuntuusers.de-Wiki. Deshalb macht es wohl keinen Sinn, hier alles noch einmal zu wiederholen…

Verschlüsselung aktivieren

Um die Verschlüsselung für ein Repository zu aktivieren, wechselt man zunächst in das lokale Repository-Verzeichnis, also beispielsweise:

cd ~/SparkleShare/meinrep

Von dort aus gesehen öffnet man dann die Datei .git/config im Editor und fügt die folgenden Zeilen an den bereits bestehenden Inhalt an:

[filter „crypto“]
    smudge = gpg -d -q –batch –no-tty -r MEINEKEYID
    clean = gpg -ea -q –batch -no-tty -r MEINEKEYID

So konfigurieren wir einen Filter namens crypto: Die clean-Zeile gibt den Befehl an, der vor dem Einchecken von Dateien in das Server-Repository auf die Dateien angewendet werden soll, die smudge-Zeile den Befehl, der beim Auschecken aus dem Server-Repository greifen soll.

Anstelle von MEINEKEYID muss die ID des GPG-Keys gesetzt werden, der für die Ver- und Entschlüsselung verwendet werden soll. Um die Key-ID zu ermitteln, listet man sich zunächst mit folgendem Kommando die vorhandenen Keys auf:

gpg --list-keys

Die Ausgabe sieht dann z.B. so aus:

/home/meinuser/.gnupg/pubring.gpg
-------------------------------
pub   2048R/18916A46 2011-09-16
uid                  Vorname Nachname <meine@email.com>
sub   2048R/6C395CF1 2011-09-16

In der mit pub beginnenden Zeile findet man nun die ID des gesuchten Keys – in diesem Fall ist die ID 18916A46.

Nun haben wir zwar einen crypto-Filter, der aber noch nicht eingesetzt wird. Wir müssen noch definieren, für welche Dateien dieser Filter gelten soll. Dazu öffnen bzw. erzeugen wir die Datei .git/info/attributes (ebenfalls relativ vom Repository-Verzeichnis aus gesehen) im Editor und fügen die folgenden Zeilen ein. Die Datei sollte normalerweise noch nicht existieren.

* filter=crypto

Damit legen wir fest, dass der Filter crypto für alle Dateien (Wildcard *) angewendet werden soll.

Fertig! Dateien, die ab jetzt in das Repository gelegt und hochgeladen werden, werden nun mit GPG verschlüsselt auf dem Server abgelegt.

Da nur für neue Dateien die Verschlüsselung greift, sollte natürlich nur für eine neues, leeres Repository die Verschlüsselung aktiviert werden. Sonst ergibt sich ein Server-Repository, in dem verschlüsselte und nicht verschlüsselte Dateien gemeinsam finden.

Neuen Client an verschlüsseltes Repository anbinden…

In eine etwas verzwickte Situation kommt man, wenn man die Synchronisation mit einem bereits bestehenden, verschlüsselten GIT-Repository auf einem neuen Client einrichten möchte. Beispielsweise, weil man den Server mit mehreren Clients synchronisieren möchte, oder weil man einen Client komplett neu installiert und daher auch SparkleShare frisch installiert hat.

Verzwickt wird die Situation, weil durch das Konfigurieren des Repository im SparkleShare-Client auch gleich die Synchronisation gestartet wird – noch bevor die Konfiguration der Verschlüsselung vorgenommen wurde. Die Folge: die Daten landen zunächst einmal verschlüsselt auf dem Client.

Die Frage ist nun also: wie kann dafür gesorgt werden, dass die Daten entschlüsselt werden?

Die einzige Antwort, die ich darauf gefunden habe, ist, das lokale GIT-Verzeichnis nach Einrichtung der Verschlüsselung zurückzusetzen, so dass also noch einmal alle Daten frisch vom Server abholt werden. Es wird hier als Beispiel in das Verzeichnis meinrep gewechselt, um dieses zurückzusetzen – ihr müsst das natürlich auf eure Gegebenheiten anpassen. Der SparkleShare-Client sollte währenddessen besser nicht laufen.

cd ~/SparkleShare/meinrep
git reset --hard HEAD

Im Normalfall wird also dann die komplette Datenmenge ein zweites Mal heruntergeladen. Bei wirklich großen Datenmengen natürlich eher nicht optimal. Besser wäre also, dass SparkleShare die Erstsynchronisation nicht automatisch und zwingend durchführen würde. Vielleicht bekommt man das mit irgendeinem Trick hin? Falls ihr eine Idee habt, dann gerne her damit!

Mehr…

An dieser Stelle möchte ich noch einmal auf die Serie hinweisen. Lest also auch die ersten beiden Artikel und seid gespannt auf den noch folgenden. Eine Übersicht über die bereits erschienenen und noch geplanten Artikel findet ihr ganz oben.

pssst, weitersagen!

Hier ein kleines HowTo wie man sich via SSH per Public Key anmelden kann. Der Vorteil an diesem Verfahren ist, dass man sich nicht jedes mal beim Login per SSH mit seinem Passwort authentifizieren muss.
 
Jack wird hier einfach als Beispielname angenommen und Tortuga stellt Euren Servernamen dar.

 

SSH Server installieren und konfigurieren
 
Um sich auf einem Rechner per SSH einloggen zu können, muss zuerst ein SSH-Server installiert werden. Wir verwenden hier die klassische Variante des OpenSSH-Servers.
Diesen installieren wir mit:
   sudo apt-get install openssh-server
 

Nach der Installation ist es wichtig dem root-User die Anmeldung zu verbieten. Solltet Ihr bisher nur den root-User verwenden, ist es aus Sicherheitsgründen dringend empfehlenswert, dass Ihr Euch einen extra Benutzer anlegt (siehe auch “Neuen Benutzer anlegen”)
 
In der Konfigurationsdatei “/etc/ssh/sshd_config” setzen wir den Wert “PermitRootLogin” auf “no”
 

Anschließend müssen wir den SSH-Server noch neu laden. Dieses geschieht mit
   /etc/init.d/ssh reload
 
 
Neuen Benutzer anlegen
 
wie bereits erwähnt werden wir nun einen neuen Benutzer anlegen. Habt Ihr bereits einen existierenden Benutzer, könnt Ihr natürlich auch diesen verwenden.
 
Der Benutzer wird mit sudo adduser jack angelegt.
 

 
Schlüssel anlegen und verteilen
 
Wenn Ihr Euch mit dem Benutzer eingeloggt habt, können wir nun die Schlüssel mit    ssh-keygen -t rsa generieren. Das Passwort stellt sicher, dass sich niemand mit diesem Schlüssel einloggen kann falls er mal in falsche Hände fällt. Es werden folgende Dateien erstellt:
- id_rsa_jack (Das ist Euer privater Schlüssel, diesen niemals aus der Hand geben)
- id_rsa_jack.pub (Das ist der öffentliche Schlüssel, dieser wird auf den Zielrechner verteilt)
 

Nachdem der Schlüssel erstellt ist kann dieser per
   ssh-copy-id -i ~/.ssh/id_rsa.pub jack@tortuga
auf den Zielserver geschoben werden.
 

 
Einloggen per Publik Key
 
Nun ist der Zeitpunkt gekommen die Verbindung zu testen. Mit    ssh tortuga und der Eingabe Eures Passwortes könnt Ihr Euch nun auf den Server einloggen. Da das Passwort über den Schlüsselbund gespeichert wird brauch es nicht jedes mal von neuem angegeben werden.
 

 
 
Anleitung wurde mit Ubuntu 10.04 erstellt
 
Fazit: Wenn man sich häufiger auf Servern einloggen muss, bietet diese Möglichkeit eine große Erleichterung, da nicht jedes mal das Kennwort eingegeben werden muss. (Anmerkung: Das Kennwort wird über den Schlüsselring verwaltet und muss nur einmal im laufenden Betrieb eingegeben werden.) Dieses HowTo soll nur eine kurze Anleitung zu diesem Verfahren darstellen. Möchtet Ihr Euch ausgiebig mit diesem Thema auseinandersetzen kann ich euch nur den UbuntuUser Wiki Eintrag zum Thema SSH empfehlen.
 
Klar soweit?
Euer RSB

10. Oktober 2011

Unter Linux lässt sich ja bekanntlich durch Anhängen eines “&” in den Hintergrund versetzen. So erzeugt dieser Befehl einen Prozess und versetzt ihn in den Hintergrund. Dabei wird als Ergebnis lediglich die Prozess-ID (4547) ausgegeben. Hängt man hinter das “&” einen zweiten Befehl an, wird der 1. im Hintergrund gestartet und der 2. im Vordergrund.

linus@dell-laptop:~$ ping localhost > log &
[1] 4547

Doch wie greife ich jetzt auf diesen Prozess zu? Wie kann ich den Prozess steuern (anhalten, beenden, in den Vordergrund holen)? Der Befehl jobs zeigt mir alle Hintergrundprozesse an (der Parameter -l sorgt dafür, dass die PID ebenfalls angezeigt wird)

linus@dell-laptop:~$ jobs -l
[1]+  4547 Läuft     ping localhost > log &

Über die Angabe %n kann man direkt auf den Hintergrundprozess mit der Nummer n zugreifen. Die passende Zahl ist diejenige in den eckigen Klammern zu Beginn der jobs-Ausgabe (in diesem Fall die 1). Im Beispiel wird der Hintergrundprozess mit dem Signal 9 (SIGKILL) abgewürgt. Die Ausgabe “getötet” bestätigt den Erfolg der Prozesszugriffs.

linus@dell-laptop:~$ kill -9 %1
[1]+  Getötet         ping localhost > log

Der Befehl fg holt einen Hintergrundprozess wieder in den Vordergrund (hier keine Ausgabe, da alle Ergebnisse in die Datei log geschrieben werden).

linus@dell-laptop:~$ ping localhost > log &
[1] 5302
linus@dell-laptop:~$ fg %1
ping localhost > log

Der Befehl bg startet einen gestoppten Hintergrundprozess erneut. Existieren mehrere gestoppte Prozesse (gestoppt mit SIGSTOP 19), so muss die Jobnummer mittels %n angehängt werden.



Für alle, die den Workshop “Inkscape is Magic” auf der Ubucon verpassen, gibt es eine weitere Möglichkeit. Diesen Workshop werde ich auf dem diesjährigem BLIT in Potsdam wiederholen. Außer diesem Workshop werde ich noch einen Vortrag haben, wie man zu FLOSS-Projekten auch ohne technische Kenntnisse bzw. Programmierkenntnisse beitragen kann, also “Contribute or Die”. Dieses Jahr ist es mal umgekehrt, ich werde erst den Workshop halten und dann den Vortrag, hatte ich noch nie. All die Jahre hatte ich den/die Workshop(s) erst nachmittags.

Also wer Zeit hat, der BLIT findet am 05. November 2011 ab 10:00 auf dem Gelände der Universität Potsdam in Griebnitzsee statt. Mehr Informationen gibt es selbstverständlich auf den Seiten der Veranstaltung im Programmplan findet man auch meine beiden Beiträge: “Inkscape is Magic” und “Contribute or Die”

9. Oktober 2011

Wie vielleicht bekannt ist nutzte ich privat zu 99% Ubuntu, und dort am liebsten das Ubuntu ootb. Also auch die Standardprogramme.

In Bezug auf die Software zur Fotoverwaltung gab es unter Ubuntu des öfteren Änderungen. Am Anfang war gThumb an Bord, dann kam F-Spot und dann Shotwell, welches letztendlich mit Ubuntu 10.10 zum Standard wurde.

gThumb fand ich ok (und habe ich bis Maverick auch genutzt), F-Spot ging bei mir gar nicht. Zum einen fand ich die Bedienung schlecht, zum anderen - und viel schlimmer - ist F-Spot bei mir immer mal wieder abgestürzt. Das geht ja gar nicht!

Shotwell hingegen mag ich. Es bietet eine GUI, die genau das hergibt, was ich brauche und zu dem noch übersichtlich ist. Die Sortierung nach Aufnahmedatum und Tags ist echt praktisch.

Weiterhin finde ich die Funktion zur Autokorrektur super, weil sie für ca. 90% der zu korrigierenden Fotos ein gutes Ergebnis liefert. Und wenn's nicht passt: die manuellen Korrekturmöglichkeiten sind auch gut und auch für "Amateure" im Bereich der Bildkorrektur brauchbar (und ungefährlich - alles kann zurück gesetzt werden).

Sehr schön gelöst finde ich auch die Exportfunktion, mit der man ganz einfach Bilder beim Exportieren konvertieren und verkleinern kann. Und zu guter Letzt wird recht aktiv an Shotwell entwickelt.

Fazit: Weiter so! Ich mag Shotwell.

Mit der “user theme” Erweiterung für die GnomeShell lassen sich Themen sehr einfach wechseln. Prinzipiell muss dafür nur mit “dconf” der Schlüssel “/org/gnome/shell/extensions/user-theme/name” geändert werden. Damit die Erweiterung die Themen auch findet, müssen diese zuvor im Ordner “~/.themes” abgelegt worden sein.

Um nun das Thema zu ändern, genügt es, folgenden Befehl in der Konsole abzusetzen:

dconf write /org/gnome/shell/extensions/user-theme/name "'DarkGlass'"

Ebenso könnte mit dem Werkzeug “dconf-editor” der entsprechende Schlüssel angepasst werden.

Weil dieses Vorgehen doch eher umständlich ist, gibt es die Erweiterung “themeselector“, die die Möglichkeit, das Thema zu ändern, direkt in die GnomeShell integriert.

Leider scheint diese Erweiterung noch nicht mit der aktuellen Version der GnomeShell lauffähig zu sein und da es nicht mit einer einfachen Anpassung der Versionsnummer in der Datei “metadata.json” getan war, habe ich ein kleines Python-Skript geschrieben, das ebenfalls in der Lage ist, die GnomeShell-Themen auf die Schnelle zu ändern.

Das Skript findet sich hier auf GitHub und sollte mit Python2 und Python3 lauffähig sein. Voraussetzung ist natürlich die Installation der oben erwähnten und verlinkten Erweiterung “user theme”. Außerdem müssen die Bibliotheken für die Anbindung von Python an die GObject-Introspektion installiert sein, unter Ubuntu oder Arch sind diese beispielsweise im Paket “python-gobject” bzw. “python-gobject2″ zu finden.

Wer schnell mal ein paar Shell-Themen ausprobieren möchte, kann ja einen Blick darauf werden.

//edit: Wie Christoph in den Kommentaren erwähnt, steht diese Funktion auch über das “gnome-tweak-tool” zur Verfügung; da das die meisten Shell-Nutzer wohl installiert haben dürften, besteht natürlich kaum Bedarf für ein zusätzliches Skript :) .

Ursprünglich wollte ich eigentlich ein Howto schreiben, wie man rtorrent mit rutorrent (Webinterface) installiert. Doch nach der Installation und dem kurzen Benutzen von rtorrent über das Webinterface habe ich die Vor- und Nachteile von rtorrent mit rutorrent und Torrentflux abgewogen:

Vorteile Torrentflux

  • Einfaches Benutzermanagment
  • Schnell und sehr einfach installiert

Nachteile Torrentflux

  • Wird seit 2008 nicht mehr weiterentwickelt

Vorteile rtorrent mit rutorrent

  • Webinterface ist in Ajax geschrieben und dementsprechend zeitgemässer
  • Aktive Entwicklung an rtorrent und rutorrent

Nachteile rtorrent mit rutorrent

  • rtorrent muss immer Laufen damit rtorrent über das rutorrent verfügbar ist
  • Kein Benutzermanagement
  • Aufwändige Installation. Diverse Programme müssen selbst kompiliert werden, damit alle Funktionen von rutorrent genutzt werden könne

Für mich haben die Vorteile von Torrentflux überwogen und darum habe ich mich für Torrentflux entschieden.

Torrentflux ist sehr einfach und schnell eingerichtet.

Benötigte Programme installieren

aptitude install apache2 php5 mysql-server php5-mysql php5-curl python

Bei der Installation von mysql-server müsste ihr ein Passwort für den Benutzer root angeben.

Torrentflux von Sourceforge herunterladen und auf den Server kopieren (geht zum Beispiel per SFTP wenn SSH installiert ist).

Torrentflux enpacken und die Daten nach /tmp verschieben

tar -xf torrentflux_2.4.tar.gz mv torrentflux_2.4 /tmp

MySQL Datenbank erstellen

mysqladmin create torrentflux -p

MySQL Datenbank von Torrentflux importieren

mysql torrentflux < /tmp/torrentflux_2.4/sql/mysql_torrentflux.sql -p

Torrentflux ins Webverzeichnis kopieren und Rechte setzen

cp -R /tmp/torrentflux_2.4/html/* /var/www/ chown -R www-data:www-data /var/www

In der Datei /var/www/config.php muss bei dieser Zeile noch das Passwort für MySQL eingetragen werden

$cfg["db_pass"] = "Euer Passwort"; // password for database

Wenn ihr jetzt das erste Mal Torrentflux über den Webbrowser öffnet, erscheint eine Login Maske. Hier gebt ihr einfach einen Benutzer und ein Passwort ein. Beim ersten Login wird der Benutzer automatisch mit dem eingegebenen Passwort erstellt. Auf der anschliessenden Seite könnt ihr noch ein paar Einstellungen an Torrentflux vornehmen. Das Verzeichnis für die Downloads muss von var-www beschreibbar sein.

Natürlich könnte ihr eure Apache Konfiguration mit einem Virtual Host erweitern damit euer Torrentflux dann zum Beispiel unter torrentflux.domain.local erreichbar wäre.

Und schon ist Torrentflux betriebsbereit und ihr könnt euch diverse Linux Distributionen schneller aus dem Internet herunterladen ;-) als über HTTP.

Hier noch 3 weiterführende Links zu Torrentflux:

Kennt jemand einen ähnlichen Webtorrentclient wie Torrentflux? Einen der weiterentwickelt wird?

Zwar habe ich schon einen Artikel zum aktuellen Humble Frozen Synapse Bundle gepostet… und das sollte eigentlich auch genug sein… aber ich bin mittlerweile so begeistert von einem Spiel des Bundles, dass ich dem Bundle – und speziell auch dem Spiel – noch ein mal einen Artikel widmen möchte:

Auch wenn das aktuelle Bundle nach dem Spiel Frozen Synapse benannt ist, der eigentlich “Star” unter den Spielen ist für mich das Spiel SpaceChem. Das will ich euch deshalb etwas genauer vorstellen.

Doch zunächst noch einmal ein paar Stichpunkte zum HumbleBundle allgemein:

  • Als HumbleBundle werden alle paar Monate ein paar Indie-Games für einen begrenzten Zeitraum angeboten.
  • Für das Bundle kann ein beliebiger Preis bezahlt werden!
  • Der bezahlte Preis kann beliebig auf die Spiele-Entwickler, den Bundle-Anbieter und zwei Charity-Organisationen (EFF, Child’s Play) verteilt werden.
  • Die Spiele sind normalerweise auf den Systemen Linux, Windows und Mac OS X lauffähig.
  • Die Download-Links erhält man sofort nach dem Kauf und die Links sollen dauerhaft bestehen bleiben.

Das aktuelle Bundle läuft nur noch bis inklusive Mittwoch, dem 12.10.2011!

Ok, nun aber zu…

SpaceChem

SpaceChem ist ein Knobel-Spiel rund um Chemie. Aber keine Angst! Ich hab’s mit Chemie so gar nicht und bin trotzdem begeistert! Chemie-Kenntnisse werden auch wirklich nicht benötigt. Eher Fähigkeiten wie logisches Denken…

Vereinfacht gesagt geht es darum, Anlagen zu bauen, die aus gegebenen Elementen und Molekülen die geforderten Ziel-Elemente und/oder -Moleküle erzeugen. Beispielsweise muss man einen Reaktor bauen, der aus den eingehenden Elementen Wasserstoff (H) und Chlor (Cl) als Ergebnis Salzsäure (H-Cl) erzeugt (siehe erster Screenshot).

Ein SpaceChem-Reaktor...

Ein Reaktor besteht dabei zunächst einmal immer aus den folgenden Teilen:

  • Zwei Eingabe-Bereiche, in denen die Eingangs-Elemente und Moleküle abgeholt werden können (Input α / Input β).
  • Zwei Ausgabe-Bereiche, in denen die Ausgangs-Elemente und Moleküle ausgegeben werden können (Output ψ / Output ω).
  • Zwei “Waldos”. Waldos sind praktisch “Behälter”, die sich nach einer festgelegten Route auf dem Reaktor-Feld bewegen und Elemente/Moleküle aufnehmen, verändern und ablegen können.

Die Waldos kann man auf der Lauf-Route mit verschiedenen Anweisungen steuern, z.B.:

  • Elemente/Moleküle aufnehmen bzw. ablegen (Grab / Drop).
  • Bindungen herstellen bzw. auflösen (Bond+ / Bond-) – funktioniert nur auf festgelegten Bindungs-Feldern.
  • Moleküle drehen.
  • Synchronisation mit dem anderen Waldo (Sync).

Woran liegt nun der Reiz des Spiels? Ganz einfach:

  • Man baut praktisch “Programme”, die zum Schluss Dinge erledigen, die man zu Beginn des Levels noch für unmöglich hielt.
  • Für fortgeschrittene Spieler geht es nicht nur darum, die Level zu lösen. Das Spiel gibt nach der Lösung des Levels aus, wie viele Runden die Generierung der Ziel-Teile benötigt hat, wie viele Reaktoren und wie viele Steuerungs-Teile dazu benutzt wurden. Natürlich geht es also auch darum, mit kleinstmöglichem Einsatz das Level zu lösen.
  • Es ist einfach Klasse zu sehen, wenn das konstruierte Programm funktioniert und in hoher Geschwindigkeit die benötigten Ausgaben erzeugt.

Herstellung von Formaldehyd

Als Steigerung kommt nach ein paar Leveln, dass man auch die “Welt” außerhalb der Reaktoren selbst verwaltet. Soll heißen: man muss die Quell-Elemente aus Tanks über Pipelines zu Reaktoren leiten, die Ausgaben der Reaktoren ggfs. in weiteren Reaktoren verarbeiten bis dann das Ergebnis letztendlich an den Zielort transportiert ist (siehe zweiter Screenshot; das Beispiel zeigt die Herstellung von Formaldehyd aus Wasserstoff-, Sauerstoff- und Kohlenstoff-Elementen mit zwei Reaktoren, die jeweils, wie im ersten Screenshot beispielhaft gezeigt, bearbeitet werden können/müssen). Das macht Laune!

Toll ist auch, dass man direkt aus dem Spiel heraus seine eigene Lösung eines Levels als Video exportieren und das Video auch gleich zu Youtube hochgeladen werden kann. So finden sich natürlich bei Youtube schon etliche Lösungsansätze zu den Levels. Wer möchte kann sich ja einige Beispiele in meinem Youtube-Kanal einmal ansehen. Tut euch aber selbst den Gefallen und nutzt diesen Weg nicht als Weg, um die Lösung für ein Level zu finden… :)

Die Videos sind teils recht kurz und man erkennt als Nicht-SpaceChem-Spieler nicht sehr viel. Eine kleine Einführung in SpaceChem in Video-Form findet ihr aber auf der Website zum Spiel.

Fazit

Als Fazit für das Bundle ziehe ich (wieder einmal): klare Kaufempfehlung (nein, ich bekomme für die “Werbung” keine Provision o.ä. :) ). Alleine für SpaceChem hat es sich für mich gelohnt. Wenn man das so sieht bekommt man “on top” noch ein, nach etwas Eingewöhnung, ebenso großartiges Frozen Synapse und Trauma, ein Flash-Spiel mit sehr geheimnisvoller und spannender Atmosphäre.

Wer außerdem mehr als den Durchschnittspreis bezahlt, bekommt sogar die Spiele des vorigen Humble Frozenbyte Bundle dazu. Der Durchschnittpreis liegt derzeit nicht einmal bei fünf Dollars! Also eigentlich lächerlich. Denkt aber doch bitte beim Kauf darüber nach, ob ihr nicht doch etwas mehr geben wollt… Es lohnt sich doch, das HumbleBundle auch in Zukunft angeboten zu bekommen. :)

pssst, weitersagen!

Da ich gerade dabei bin für Benutzer neuer Passwörter zu generien, hab ich mir gedacht ein kleines HowTo zum erstellen sicherer Passwörter könnte auch nicht schaden. Deshalb möchte ich Euch nicht vorenthalten wie Ihr mittels pwgen merkbare und sichere Passwörter erstellt.

 

Sollte das Programm noch nicht installiert sein, lässt sich dieses aus den Paketquellen nachinstallieren. Hierzu geht Ihr wie folgt vor:    sudo apt-get install pwgen
 
Ruft man pwgen ohne weitere Optionen auf, werden 160 Passwörter generiert. Diese bestehen aus Zahlen, Groß- und Kleinbuchstaben. Leider kann man 8stellige Passwörter ohne Sonderzeichen als nur bedingt sicher ansehen.
 

 
Das Programm pwgen besitzt jedoch einige Parameter, mit denen man sichere Passwörter generieren kann. Deshalb stelle ich Euch die, meines Erachtens, wichtigsten Optionen vor:
 
  pwgen Zahl (z.B. pwgen 12 – Erzeugt 12stellige Passwörter)
  pwgen -N Zahl (z.B. pwgen -N 5 – Erzeugt 5 Passwörter)
  pwgen -y (--symbols – Erzeugt Passwörter mit Sonderzeichen)
  pwgen -B (--ambiguous - Erzeugt Passwörter ohne schwer lesbare Zeichen z.B. 0 O, l I)
  pwgen -0 (--no-numerals – Erzeugt Passwörter ohne Zahlen)
  pwgen -A (--no-capitalize – Erzeugt Passwörter ohne Großbuchstaben)
  pwgen -s (--secure – Erzeugt schwer zu merkende Passwörter)
  pwgen --help (Ruft die Hilfeseite zu pwgen auf)
 
Aus der Kombination dieser Parameter, lassen sich nun doch recht sichere Passwörter erzeugen an die man sich auch erinnern kann.   pwgen -N 30 -y -B 12
 

 
In diesem Beispiel werden jetzt dreißig 12stellige Passwörter mit Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen erstellt. Zusätzlich werden schwer interpretierbare Zeichen weggelassen.
 
 
Wie kann man sich solche Passwörter merken?
in dem man sich Eselsbrücken baut. Hier mal ein kleines vereinfachtes Beispiel:
E!Ch4AnmaE$S
 
Da würde mir jetzt pauschal folgendes einfallen:
Eicheln für animals essen
 
Nimmt man den Satz und sucht Gemeinsamkeiten ergibt sich folgendes:
- Erster Buchstabe eines jeden Wortes groß
- Jeder Buchstabe nach einem Sonderzeichen oder Zahl groß
 
Wenn ich mir das verinnerlicht hab kann ich mir auf diese Art und Weise eigentlich jedes Passwort merken ohne es aufschreiben zu müssen. Sicherheitshalber gehört ein Passwort aber immer in einen Passwortcontainer, falls man es doch mal vergisst.
 
 
Hier noch ein Tipp von praseodym.
 
Der Befehl pwgen -c -n -s 63 1 ein 63-stelliges Passwort fürs W-LAN das besonders sicher ist. Hier kommen folgende Optionen zum Einsatz:
 
  pwgen -c (--capitalize – Erzeugt Passwörter mit Großbuchstaben)
  pwgen -n (--numerals – Erzeugt Passwörter mit Ziffern)
  pwgen -s (--secure – Erzeugt schwer zu merkende Passwörter)
 

 
Nähere Informationen im UbuntuUser Wiki
 
 
Anleitung wurde mit Ubuntu 10.04 erstellt
 
Fazit: Mit diesem kleinen Tool kann jeder für sich sichere Passwörter erstellen. Aus meiner Erfahrung kann man sich 12stellige Passwörter noch ohne Problem merken. Aus 30 generierten Passwörtern finde ich meistens eins mit dem ich was assoziieren und es mir so merken kann. Auch wenn ich oft das ein oder andere Zeichen durch etwas anderes ersetze.
 
Klar soweit?
Euer RSB

8. Oktober 2011

In den letzten Tagen habe ich mich mal wieder mit Arch Linux und dem Fenstermanager Openbox auseinander gesetzt. Viele werden Arch Linux, genauso wie ich, ohne Login-Manger benutzen – d.h. man loggt sich auf der ersten virtuellen Konsole (tty1) ein und startet dann mit dem Befehl startx den X-Server - sollte er nicht schon von alleine über die .bashrc starten.

if [ -z "$DISPLAY" ] && [ $(tty) == /dev/tty1 ] ; then
startx
fi

In den meisten Fällen wird nun über die .xinitrc der Fenstermanager, in meinem Fall Openbox, gestartet.

# start ConsoleKit, DBUS and OpenBox
exec ck-launch-session dbus-launch --sh-syntax --exit-with-session openbox-session

archlinux openbox 650x373

Jetzt habe ich immer, wenn ich mal nicht am Platz war, ein Meeting hatte oder eine Raucherpause eingelegt habe, meinen Bildschirm über den XScreenSaver gesperrt. Irgendwann hatte sich der Bildschirmschoner aufgehangen und ich musste ihn über eine virtuelle Konsole (STRG+ALT+[F1-F6]) beenden. Währenddessen kam mir in den Sinn, dass einfach jemand trotz gesperrten Bildschirms auf das tty1 (erste virtuelle Konsole) wechseln und den X-Server mit STRG-C beenden kann, um dann als User die Linux-Kiste unsicher zu machen – das geht mal garnicht!

Also habe ich mich nach einer Lösung umgeschaut und bin auf das kleine Programm vlock gestoßen.

vlock ist ein Programm zum Sperren von einer oder mehreren Sitzungen in der Linux-Konsole… [Pro-Linux]

apt-get install vlock
# oder
pacman -S vlock

Ich habe dann meine .bashrc bearbeitet und eine neue Funktion startx hinzugefügt.  icon mrgreen

startx() {
nohup startx "$@" > /dev/null 2>&1 &
disown
vlock
}

archlinux openbox vlock

Nun am Besten einen Neustart durchführen oder die .bashrc neu einlesen (source .bashrc) lassen. Nachdem der X-Server gestartet ist, wird die virtuelle Konsole automatisch gesperrt und erst nach der Eingabe des User- oder Root-Passwortes entsperrt.

In diesem Zuge habe ich STRG+ALT+BACKSPACE zum Neustarten des X-Servers und SysRQ deaktiviert. Magic SysRQ ist seit Ubuntu 10.10 und Arch Linux standardmäßig deaktiviert – prüfen kann man es mit …

cat /proc/sys/kernel/sysrq

Antwortet das Linux-System mit 0 - ist SysRQ deaktiviert. Unter Arch Linux ist es in der Datei /etc/sysctl.conf konfiguriert.

cat /etc/sysctl.conf | grep -i sysrq
# Disable the magic-sysrq key (console security issues)
kernel.sysrq = 0

STRG+ALT+BACKSPACE deaktiviert man in der X-Server Konfiguration (sollte ab X-Server Version 1.6 standardmäßig deaktiviert sein).

Section "ServerFlags"
Option "DontZap" "true"
EndSection

Quellen:
ubuntuusers.de – Magic SysRQ
0x7e.org – securing your xsession when using startx
archlinux.org – Lock screen without display manager, can still change tty


© loggn.de - Tutorials und Erfahrungen, 2011. | Permalink | 11 Kommentare
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2012
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

    Vor einiger Zeit habe ich ja geschrieben, wie man Ubuntu auf das WeTab bekommt, allerdings sieht man bei solchen Sachen auf Bildern bei weitem nicht so viel, wie auf einem Video.

    Deshalb haben wir ein kleines Video gemacht, dass die Ubuntu mit der Gnome-Shell auf einem WeTab zeigt.

    Die Bildschirmtastatur ist nicht die Standard-Tastatur von Gnome, sondern Florence, die zwar nicht mehr in den Quellen ist, sich aber noch aus den Natty-Quellen installieren lässt.,

    Die neue Tastatur Caribou, die in Gnome 3.2 eingeführt wurde, ist auch im Repository. Allerdings ist sie nicht so konfigurierbar, wie Florence, passt sich dafür besser in Gnome ein.

    Viel Spaß mit dem Video, falls ihr Anmerkungen oder Ideen habt, so würde ich mich freuen, wenn ihr diese in den Kommentaren postet.


    http://www.youtube.com/watch?v=s14AE67a3uU

    Wer kennt nicht das Problem, man hat längere Befehlszeilen oder Texte die sich immerzu wiederholen. Das ganze immer per Hand tippen oder Drag & Drop einfügen kostet nur unnötig Zeit. Hier schafft das Programm AutoKey Abhilfe. Ob Texte, Befehle, oder sogar ausführbare Skripte, alles kann per Shortcut oder Tastaturkombination eingefügt werden. Ich möchte Euch mit diesem Beitrag einen kurzen Überblick über dieses Programm geben.


    Das Programm lässt sich ganz einfach in den Ubuntu Paketquellen mit
    sudo apt-cache search autokey
    finden und anschließend mit
    sudo apt-get install autokey-gtk
    installieren.
     
    autokey
     
    Über “Anwendungen / Zubehör / AutoKey (GTK)” lässt sich das Programm starten. Ein Rechtsklick auf das Icon im Oberen Panel bringt einen zur Konfiguration.
     

     
    Im Menübaum auf der linken Seite hat man bereits Beispiele für Bausteine und Skripte. Einen neuen Textbaustein kann man unter anderem über “File / Create / New Phrase” anlegen. Als erstes vergibt man einen Namen für den Baustein (der Name muss mit Enter bestätigt werden, ansonsten wird der Name nicht übernommen), dann trägt man den eigentlichen Text in das Textfeld ein. Unter “Phrase Settings” kann man den Baustein konfigurieren.
     
     
    Die Funktionen:
     
    - Always prompt before pasting this phrase (Wird diese Funktion aktiviert, erscheint vor dem Einfügen des Textbausteins ein Auswahlfeld, dass man zuerst bestätigen muss)
     
    - Show in tray menu (Erzeugt eine Baumansicht)
     
    - Abbreviation (Hier legen wir das Textkürzel, im Feld “Abbreviation”, für den Baustein fest). Von den weiteren Menüpunkten ist für uns jetzt nur “Remove typed abbreviation” intressant, ist dieser nicht aktiviert, dann wird der Textkürzel beim einfügen des Bausteins nicht entfernt.
     

     
    - Hotkey (Hier kann eine Tastaturkombination für den Textbaustein hinterlegt werden)
     

     
    Nach dem Speichern kann nun in jeder beliebigen Anwendung der Textbaustein verwendet werden. Hierzu gibt man einfach das Kürzel gefolgt von einem Leerzeichen ein oder drückt das Tastaturkürzel und schon erscheint der gewünschte Textbaustein.
     

     

     
    Die Tastaturkürzel funktionieren natürlich nur, wenn das Programm AutoKey gestartet ist. Damit es direkt beim Start geöffnet wird, aktivieren wir unter “Edit / Preferences” im Karteireiter “General” die Funktion “Autmatically start AutoKey at login”.
     

     
    Abschließend sei noch erwähnt, dass die Konfiguration im home-Verzeichnis unter “.config/autokey/” gespeichert wird.
     
     
    Anleitung wurde mit Ubuntu 10.04 unter Gnome 2.30.2 erstellt
     
    Fazit: Da ich früher unter Windows schon mit ähnlichen Tools gearbeitet hab, war ich doch recht froh unter Linux etwas Äquivalentes gefunden zu haben. Das Programm AutoKey bietet fast unendlich erscheinende Möglichkeiten. Investiert man etwas Zeit um sich mit den Funktionen vertraut zu machen, hat man einen tollen Helfer bei der täglichen Arbeit. Ich nutze inzwischen dutzende von Textbausteinen und kann mir so viel Zeit und Tipparbeit ersparen.
     
    Klar soweit?
    Euer RSB

    7. Oktober 2011

    Es ist wieder so weit, das neue Ubuntu Oneiric Ocelot wird am 13.10.2011 das Licht der Welt erblicken. Für diesen Anlass haben wir in unserer Gruppe rp11-10 auf ubunteros.ch eine virtuelle Release Party organisiert. Die Release-Party findet Online auf unserer Plattform statt. Jeder der gerne mitmachen möchte, kann sich auf ubunteros.ch einloggen und seine Erfahrungen mit dem neuen Ubuntu 11.10 Oneiric Ocelot einbringen.

    Gleichzeitig mit der Release Party wird das ubuntu-radio offiziell gestartet. Das Radio hat sich der freien Musik, diversen Podcasts und freien Hörspielen verschrieben. Rund um die Uhr sendet das Radio mit einer neuen Streaming Technologie von cloudspeaker.fm die ausgewählten Beiträge über das Internet. Ein Interview mit Pascal von cloudspeaker.fm erklärt an diesem Tag die neue Stream-Technologie.

    Während der Release Party können Beiträge, Bilder und Links zum neuen Ubuntu 11.10 Oneiric Ocelot gepostet werden. Natürlich steht auch unser IRC Chat für eine Live Kommunikation zur Verfügung.

    Macht mit und seit dabei, wenn die ersten Erfahrungen mit dem neuen Ubuntu 11.10 Oneiric Ocelot gepostet werden.

    Direkt-Link zur Release-Party: http://ubunteros.ch/rp11-10

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

    Seit ein paar Tagen gibt es ja GNOME 3.2, mir ist dabei aufgefallen das der Rechner wenn er im GDM läuft einfach nach 30 Minuten in den Standby geht. Das ist eigentlich eine gute Idee, aber recht doof wenn man den Rechner z.B. für Updates nur via SSH verwendet.

    Man kann das Verhalten aber ganz leicht ändern:

    1. xhost +
    2. sudo -u gdm gnome-control-center, und dann dort einfach wie gewohnt unter Leistung Einstellen
    3. xhost -

    Natürlich benötigt man hierfür xhost (unter Arch nicht Standardmäßig installiert, unter Ubuntu schon) und einen Benutzer der auch via sudo die Rechte hat den aktiven User zu wechseln um Programme unter einem anderen Benutzer zu starten. Auf den gleichen Weg kann man übrigens auch viele andere Einstellungen des GDM Users ändern ;-)

    Seit ein paar Tagen gibt es ja GNOME 3.2, mir ist dabei aufgefallen das der Rechner wenn er im GDM läuft einfach nach 30 Minuten in den Standby geht. Das ist eigentlich eine gute Idee, aber recht doof wenn man den Rechner z.B. für Updates nur via SSH verwendet.

    Man kann das Verhalten aber ganz leicht ändern:

    1. xhost +
    2. sudo -u gdm gnome-control-center, und dann dort einfach wie gewohnt unter Leistung Einstellen
    3. xhost -

    Natürlich benötigt man hierfür xhost (unter Arch nicht Standardmäßig installiert, unter Ubuntu schon) und einen Benutzer der auch via sudo die Rechte hat den aktiven User zu wechseln um Programme unter einem anderen Benutzer zu starten. Auf den gleichen Weg kann man übrigens auch viele andere Einstellungen des GDM Users ändern ;-)

    6. Oktober 2011

    Mit Roman gehts aufwärts. Einmal eine wirklich positive Info ist der Genesungszustand von Roman. Ich bin hoch erfreut zu hören, dass es Roman besser geht. Roman ist im Moment in einer Reha-Klinik und erholt sich von seiner Hirnblutung. Leider ist das eine wirklich sehr ernste Sache die einige Probleme mit sich bringt. Dirk hat dazu in seinem Podcast einen Beitrag zum Thema Balance im Leben gemacht. Hört mal rein, es lohnt sich.

    Wie geht es nun weiter mit Roman ?

    So wie es aussieht wird Roman nun sicherlich bis Ende Oktober in der Reha bleiben. Für die Rehabilitation braucht es immer wieder einen Input von Familienmitgliedern, Freunden, Verwandten und weiteren Personen. Im Moment läuft noch eine Phase mit engen Freunden im Sinne der Familie und Verwandten. Wir ubuntero’s kommen in einem 2. Schritt so etwa im November zum tragen. Bis dahin nützen Roman handschriftliche Glückwünsche via Brief-Post sehr viel. In diesem Sinne ist eine momentane Kontaktaufnahme mit Roman via Brief-Post eine gute Sache. Wenn ihr also Roman etwas gutes tun wollt, dann sendet eine Postkarte etc. an Romans Adresse.

    Wer in der näheren Umgebung von Roman ist und ihn besuchen möchte, der kann das natürlich auch tun. Hier ist es wichtig, dass bei einem Besuch nicht zu verschiedene Personen-Gruppen anwesend sind. Damit das koordiniert werden kann, gibt es einen Doodle. Wenn ihr also einen Besuch abstatten möchtet, dann schaut in den Doodle und tragt euch dort ein.

    Was können wir sonst noch tun ?

    Es gibt noch viele Dinge die wir tun können. Wir rechnen damit, dass Roman etwa noch 6-12 Monate hier nicht mitmachen kann. Natürlich wollen wir alle Aufgaben die damit so anfallen weiter betreiben. In diesem Sinne wird als wichtigste Sache dieser Blog von mir weiter geführt. Auch weitere Internet-Auftritte müssen noch koordiniert und organisiert werden. Dazu werden wir alle technischen Massnahmen ergreiffen und die Systeme für Roman betreiben. Starken Rückhalt haben wir auch von Dirk. An dieser Stelle vielen Dank Dirk für alle Deine Bemühungen.

    Fazit

    Mit Roman gehts aufwärts. Wir unternehmen alles erdenkliche damit Roman so gut wie möglich wieder sein ganzes Leben in den Griff bekommt. Helft mit Roman zu unterstützen, denn ich bin mir sicher, dass es ihm wirklich sehr weit helfen wird. Danke für eure Mithilfe und euren Einsatz.

     

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

     

    Ob nun 5 Minuten wirklich gebraucht werden ;-)

    Asterisk Installation

    Die Installation von Asterisk ist eine der Aufgaben die wirklich am einfachsten ist. Ich mache das ganze auf Debian, also hab ich auch die Debian Pakete genommen. apt-get la-le-lu und fertig. Welche Paket ich installiert habe? Diese:

    ii  asterisk                            1:1.6.2.9-2+squeeze3         Open Source Private Branch Exchange (PBX)
    ii  asterisk-config                     1:1.6.2.9-2+squeeze3         Configuration files for Asterisk
    ii  asterisk-core-sounds-en-gsm         1.4.19-1                     asterisk PBX sound files - English/gsm
    ii  asterisk-doc                        1:1.6.2.9-2+squeeze3         Source code documentation for Asterisk
    ii  asterisk-h323                       1:1.6.2.9-2+squeeze3         H.323 protocol support for Asterisk
    ii  asterisk-moh-opsound-g722           2.03-1                       asterisk extra sound files - English/g722
    ii  asterisk-moh-opsound-gsm            2.03-1                       asterisk extra sound files - English/gsm
    ii  asterisk-moh-opsound-wav            2.03-1                       asterisk extra sound files - English/wav
    ii  asterisk-mp3                        1.6.2.1-1                    MP3 format support (format_mp3) for the Asterisk PBX
    ii  asterisk-mysql                      1.6.2.1-1                    MySQL support for the Asterisk PBX (cdr mainly)
    ii  libasterisk-agi-perl                1.01-2                       Collections of Perl modules to be used with Asterisk PBX AGI

    Damit hat man bereits quasi alles was benötigt wird um den Asterisk Server zu starten.

    In den Debian Repositories ist noch Asterisk 1.6 – und das ist auch gut so. Asterisk 1.8 gibt es zwar auch schon länger, allerdings ist diese Version noch recht Buggy. Im Internet wird auch noch oft von der 1.8 abgeraten und die meisten Dokus beziehen sich auf 1.6. Ich hatte bisher auch noch keine Probleme mit dem Dienst an sich.

    Auf die absoluten Basics (bspw. wie nun einen SIP/Account einrichten) möchte ich hier eigentlich – wie immer – nicht eingehen. Ich möchte mehr die Fallstricke beschreiben die ich auf meinem Weg beiseite räumen musste und ein Tipps geben. Eine gute Quelle ist das Asterisk Buch online ( http://www.das-asterisk-buch.de/2.1/ ). Dort werden gerade die Basics recht gut beschrieben.

    Ein paar Konfighints

    Konfiguration über Scripte erweitern

    Datei: /etc/asterisk/asterisk.conf

    Parameter: execincludes = yes ; support #exec in config files

    Dadurch wird es möglich innerhalb von Konfigurationsdateien mit Hilfe von “#exec” externe Scripte auszuführen. Der Output eines solchen Scriptes muss im Format der Konfigurationsdatei sein.

    Konfigurationen (Accounts & Voicemail) aus der Datenbank

    Das ganze läuft unter dem Namen “realtime”. Der Name ist durchaus verständlich, da durch Änderungen an der Datenbank der Asterisk Prozess nicht neu geladen werden muss. Ändert man in den Dateien (sip.conf, voicemail.conf, etc.) muss der Dialplan oder teilweise der asterisk Prozess neu geladen werden.

    Datei: /etc/asterisk/extconfig.conf

    Parameter:

    [settings]
    voicemail => mysql,general,voicemail
    sipusers => mysql,general,sip_devices
    sippeers => mysql,general,sip_devices

    Diese Einstellungen bewirken, dass Asterisk nach den SIP Accounts (quasi der /etc/asterisk/sip.conf) auch in der Datenbank schaut. Das gleiche gilt für die /etc/asterisk/voicemail.conf.

    Damit das ganze funktioniert müssen noch die Daten für den Connect auf die Datenbank eingerichtet werden.

    Datei: /etc/asterisk/res_mysql.conf

    Parameter:

    [general]
    ;dbhost = 127.0.0.1
    dbname = asterisk_db
    dbuser = root
    dbpass = test
    dbport = 3306
    dbsock = /var/run/mysqld/mysqld.sock
    requirements=warn ; or createclose or createchar

    Diese Einstellungen machen dem System die Datenbank bekannt. Man sieht nun auch, dass der Verweis aus der extconfig.conf “general” auf diese Verbindung zeigt und hier seine Referenz hat. Dem entsprechend können also auch mehrere Datenbanken genutzt werden.

    Die Datenbanktabellen müssen noch erstellt werden. Dafür möchte ich gerne auf eine externe Seite verweisen -> http://www.voip-info.org/wiki/view/Asterisk+RealTime+Sip

    Mit einem reload oder restart sollte dann die Konfiguration in der Datenbank berücksichtigt werden – falls vorhanden. Die Felder in der Datenbank sind analog zu denen in den Konfigdateien. Es gibt einige Spalten die in den jeweiligen Tabellen vorhanden sein müssen, die meisten können jedoch auch einfach gelöscht werden. Auch zusätzliche Spalten sind kein Problem – sie werden von Asterisk einfach ignoriert.

     Dateirechte

    Mir ist es häufig passiert, dass ich Änderungen vorgenommen habe die vom System nicht angenommen wurden. Das ganze ohne irgendeine Fehlermeldung (wenigstens in den “normalen” logs). Das passiert, wenn die Rechte einer Konfigurationsdatei nicht stimmen. Die Dateien sollten alle asterisk gehören.

    Erster Test

    Einen ersten Test kann man ganz einfach mit Hilfe eines Headsets und (bspw.) Ekiga oder Jitsi – also Softphones – machen. Ich habe dazu Voicemail konfiguriert und als Test die Mailbox angerufen.

     

     

     

     

     

     

     

    5. Oktober 2011

      Schuppentier als Maskottchen

      Mark Shuttleworth hat heute bekanntgegeben, dass der Codename für Ubuntu 12.04 LTS Precise Pangolin lauten wird. Zu deutsch bedeutet das etwa „gewissenhaftes Schuppentier“.

      Gemäß der Tradition wurde ein Adjektiv gefolgt von einem Tier gewählt, wobei es sich um eine Alliteration handelt, und die Anfangsbuchstaben bei jeder Version fortlaufend ist. Auf das O folgt das P und aus allen Einsendungen für Namensvorschläge wurde nun der oben genannte Schuppentier ausgesucht.

      Das Adjektiv soll im Übrigen auf die Zuverlässigkeit von Ubuntu anspielen, deren Anspruch erneut an diese Ubuntuversion gestellt wird. Leider wurde diese einmalige Chance nicht genutzt, um das Linuxmaskottchen Tux ins Spiel zu bringen: Penguin.

       

      Mark Shuttleworth hat soeben in seinem Blog den Namen des nächsten LTE Ubuntu Releases verraten.
      Ubuntu 12.04 wird den Namen Precise Pangolin haben. Auf Deutsch: Präzises/akkurates Schuppentier

      Auf den Namen ist er wohl gekommen, da er vor kurzer Zeit selber einem Schuppentier auf der Spur war und bestätigen kann, dass diese sehr präzise seien zumindest hinsichtlich des Auffindens von Ameisennestern.

      Da im Ubuntu Alphabet das P an der Reihe war, ist es etwas schade das man für das "große" LTE Release keinen simplen Namen wie z.B. P***** Penguin nimmt.


      Schuppentiere (engl. Pangolin) sind die einzig bekannten Säugetiere, die mit großen Hornschuppen ausgestattet sind.


      Mehr Infos zum Tier gibt es auf Wikipedia.

      Den Orginalpost von Mark Shuttleworth gibt es hier.

      Nur noch neun Tage, dann startet die Ubucon 2011 in Leipzig. Es ist noch nicht zu spät für die Anmeldung. Das Programm kann sich meiner Ansicht nach sehen lassen. Ich möchte noch einmal explizit darauf hinweisen, dass man eine Förderung in Anspruch nehmen kann, falls die Teilnahme an der Veranstaltung eine zu grosse finanzielle Herausforderung darstellt. Wer eine Mitfahrgelegenheit sucht oder bietet, möge sich bitte auf dieser Wiki-Seite eintragen.

      Ich freue mich darauf, Euch zu treffen!

      4. Oktober 2011

      Wuala war für mich einige Zeit eine ernsthafte Alternative zur Dropbox. Leider war für mich der Upload bei Wuala noch nie besonders schnell. Da ich aber nie große Dateien hochgeladen hatte fand ich das nicht schlimm.

      Nun hat sich Wuala aber von einer Funktion verabschiedet, die der Speicheranbieter Dropbox voraus hatte. Man konnte eigenen Festplatten-Speicher freigeben und ihn gegen zusätzlichen Speicherplatz in der Cloud eintauschen. Diese Funktion gibt es bei Wuala nun nicht mehr – eigentlich schade.

      Damit verabschiedet sich Wuala für mich aus dem Rennen der Online-Speicher. Was passiert nun mit dem bereits durch das Tauschen ‘verdienten‘ Speicherplatz? Dieser bleibt den Nutzern für 12 Monate erhalten, danach muss man ihn kaufen. Wuala bietet hierfür laut Forum einen Rabatt an. Man muss also jetzt nicht panisch sofort bei Wuala seine Koffer packen und die Daten in Sicherheit bringen – immerhin.

      In der neuen Wuala-Version, die heute über die Paketquellen auf mein System kam, war die Tausch-Funktion bereits verschwunden. Damit verschwindet Wuala nun allerdings auch von meiner Festplatte.

      3. Oktober 2011


      Weiter geht es in meiner Serie zu SparkleShare. Hier noch einmal eine Übersicht über die (geplanten) Themen der Serie:

      Heute also der zweite Teil – es geht um die Einrichtung und den Betrieb eines eigenen Servers für SparkleShare

      Installation des Servers

      Da SparkleShare keine eigene Server-Software, sondern stattdessen nur ein GIT-Repository benötigt, ist die Installation des Servers sehr einfach – und was die Voraussetzungen angeht auch sehr anspruchslos.

      Wenn ihr einen eigenen Root-Server o.ä. gemietet habt, wäre es natürlich praktisch das GIT-Repository dort einzurichten. Aber mir fällt da noch ein zweites Szenario ein: wer ein NAS sein eigen nennt, kann ggfs. auch dort das Repository platzieren und so ein automatisches Synchronisieren auf den NAS realisieren.

      Bei meinem Synology NAS würde das jedenfalls funktionieren. Man muss zuvor den Paketmanager IPKG darauf zum laufen bringen (wie das funktioniert, habe ich hier schon einmal geschrieben). Darüber kann dann GIT installiert werden. Ich habe das selbst aber noch nicht probiert und ich werde hier auch nicht näher darauf eingehen.

      Pakete installieren

      Zunächst einmal muss man dafür sorgen, dass die benötigte Software auf dem Server vorhanden ist: GIT und OpenSSH. Sofern es sich um einen Ubuntu-Server handelt, kann das folgendermaßen bewerkstelligt werden:

      sudo apt-get install git-core openssh-server

      GIT-Repository erstellen

      Bei einem GIT-Repository handelt es sich an sich nur um ein Datenverzeichnis, das zusätzlich ein paar Verzeichnisse und Dateien zur GIT-Steuerung beinhaltet. D.h. man kann sich frei aussuchen, wo man denn sein Repository bzw. seine Repositories auf dem Server unterbringen möchte. Ich schlage dafür /var/sparkleshare vor (spielt aber wirklich keine Rolle, wenn ihr das lieber irgendwo anders haben woll). Legt also euer Basisverzeichnis an:

      mkdir /var/sparkleshare

      Dann legt ihr euch ein Repository-Verzeichnis unterhalb des Basisverzeichnisses an (auch dieser Name ist natürlich frei wählbar):

      cd /var/sparkleshare
      mkdir meinrep

      Und schließlich müsst ihr aus diesem Verzeichnis ein GIT-Repository machen:

      cd /var/sparkleshare/meinrep
      git --bare init

      Zugriff per SSH-Key ermöglichen

      Als nächstes braucht ihr ein SSH-Keypair, dessen Public-Key ihr auf dem Server platzieren müsst. SparkleShare benutzt dann den lokal gespeicherten Private-Key für die Authentifizierung am Server. Aber zunächst: falls ihr mit dieser Thematik nicht vertraut seid, möchte ich euch dringend die Wikiseite bei ubuntuusers.de an Herz legen.

      Mit folgendem Kommando könnt ihr ein Keypair generieren:

      ssh-keygen -t rsa

      Falls ihr schon einen Key für den Zugriff auf euren Server besitzt, könnt ihr diesen Schritt natürlich überspringen und den vorhandenen Key auch für SparkleShare benutzen. Seid euch aber in beiden Fällen darüber bewusst, dass eine bei der Generierung angegebene Passphrase natürlich auch jeweils nach jedem System-Neustart einmal eingegeben werden muss (immer dann, wenn sich SparkleShare das erste Mal mit dem Server verbindet). Wenn ihr keine Passphrase eingebt, bleibt euch das erspart – aber das bedeutet dann auch, dass jeder, der in Besitz eures Private-Keys kommt, auch Zugriff auf euren Server erhält!

      Ihr findet nun euren Public-Key in der Datei ~/.ssh/id_rsa.pub und euren Private-Key in ~/.ssh/id_rsa.

      Kopiert nun den Public-Key auf den Server, indem ihr folgendes eingebt (wobei ihr meinuser durch den Benutzer ersetzt, den ihr auf dem ebenfalls zu ersetzenden Server meinserver benutzen wollt):

      ssh-copy-id meinuser@meinserver

      Beachtet an dieser Stelle auch, dass euer Repository-Verzeichnis für den hier angegebenen User natürlich les- und schreibbar sein muss. Sonst kann es natürlich nicht funktionieren.

      Ihr könnt nun prüfen, ob der Zugriff per SSH unter Benutzung des Keys funktioniert:

      ssh -l meinuser meinserver

      Anstatt des User-Kennworts müsst ihr nun die Passphrase eures Keys eingeben – falls ihr keine Passphrase angegeben habt, solltet ihr sofort angemeldet sein.

      Client konfigurieren

      Beispielkonfiguration im SparkleShare-Client

      Wählt im Menü des SparkleShare-Clients den Punkt Remote-Ordner hinzufügen... und gebt in der folgenden Maske eure Daten (User- und Servername und Repository-Verzeichnis) an.

      Wählt die Option Auf meinem eigenen Server aus und gebt in das Eingabefeld dahinter eure Serveradresse ein. Wenn euer lokaler Benutzer einen anderen Namen hat, als der Benutzer auf dem Server, müsst ihr dem Servernamen außerdem den Server-Benutzer voranstellen – nach dem Schema: user@server.

      In dem unteren Eingabefeld Verzeichnisname gebt ihr dann den vollständigen Pfad zu eurem GIT-Repository an.

      Für die o.g. Beispiel-Konfiguration würde das so aussehen, wie in dem auf der Seite gezeigten Screenshot.

      Wenn ihr dann auf Synchronisation klickt, startet die Erst-Sychronisation. D.h. es werden alle Dateien vom Server abgeholt, falls das Repository dort schon befüllt ist – falls nicht wird einfach ein lokales Repository-Verzeichnis erzeugt.

      Dieses lokale Repository-Verzeichnis findet ihr dann als Unterverzeichnis unterhalb von ~/SparkleShare. Alles was ihr dort hinein kopiert, wird auf den Server übertragen.

      Mehr…

      An dieser Stelle möchte ich noch einmal auf die Serie hinweisen. Lest also auch den ersten Artikel und seid gespannt auf die noch folgenden. Eine Übersicht über die bereits erschienenen und noch geplanten Artikel findet ihr ganz oben.

      pssst, weitersagen!

      Ich geb’s ja zu! Ich habe bisher höchstens manuelle Backups gemacht. Wiederkehrende Erfahrungen mit kaputten Festplatten, versehentlich gelöschten Daten oder verschlimmbesserten Konfigurationsdateien haben mich dann aber doch motiviert, mich etwas intensiver mit der Thematik zu befassen. Und es kann tatsächlich so einfach sein: In meinem Fall heißt die Antwort rsnapshot – ein kleines Shelltool, mit dem man regelmäßige Backups machen kann.

      Vorausgehende Fragen (und Antworten)

      Wer sich mit Backups beschäftigt, sollte einige Fragen vorausschicken, damit ein sinnvolles Backupsystem entsteht:

      Wohin sollen meine Daten gespeichert werden?
      Hier bietet sich natürlich an, eine logisch und physikalisch vom normalen System getrennte Festplatte zu wählen. Mit rsnapshot ist aber beispielsweise auch ein Backup per SSH auf einem entfernten Server möglich.

      Was will ich backupen? In meinem Fall:

      • /home-Verzeichnis
      • /etc und /var für die Einstellungen
      • /usr für lokal installierte Programme
      • /boot für die Bootinformationen

      Wie oft will ich meine Daten backupen?
      Ich habe dazu ein Script geschrieben (dazu unten mehr), welches als Cronjob täglich und monatlich aufgerufen wird. Außerdem habe ich rsnapshot so eingestellt, dass nach 5 Tagen bzw. 3 Monaten die Daten wieder überschrieben werden.

      Besonders wichtig: Wie werden die Daten später wiederhergestellt?
      Im Falle von rsnapshot kann man sie einfach aus dem Backupverzeichnis kopieren.

      Warum rsnapshot?

      Auf der Suche nach einem unkomplizierten und möglichst schlanken Backuptool, bin ich auf rsnapshot gestoßen. Wie viele Backuptools, verwendet Rsnapshot das altbewährte rsync für Backups. Eine Besonderheit von rsnapshot ist, dass nur beim ersten Mal eine komplette Kopie der Daten erfolgt. Anschließend werden nur noch diejenigen Dateien kopiert, die sich geändert haben, für alle Anderen werden Hardlinks zum ersten Backup gesetzt. Das spart natürlich Platz und wirkt sich auch deutlich positiv auf die Laufzeit der nachfolgenden Backups aus.
      Die Dateien werden unkomprimiert in der selben Verzeichnisstruktur wie auf dem eigentlichen System abgelegt, was die Wiederherstellung einzelner Dateien natürlich erleichtert.
      Ich denke auf Desktopsystemen reicht es auch, eine Kopie der aktuellen Datei zu haben,  auf Serversystemen, auf denen Datensicherheit besonders wichtig ist, muss man sich natürlich überlegen, ob man nicht lieber zu einem Tool greifen möchte, das jedes Mal “komplette” Backups anlegt.

      Rsnapshot konfigurieren

      Die Konfigurationsdatei (Standard: /etc/rsnapshot.conf) ist gut kommentiert und schnell angepasst. Im Wesentlichen müssen hier nur ein Zielverzeichnis (snapshot_root), die Backuppoints (Verzeichnisse, die gespeichert werden sollen) und eventuelle Ausnahmen (exclude-Anweisungen) festgelegt werden. Außerdem sollte man auswählen, welche in Zeiträumen (und wie lange) die Daten gesichert werden sollen. Danach kann das Backup schon mittels z.B. rsnapshot -t daily getestet und mit rsnapshot -v daily durchgeführt werden!

      Rsnapshot Backupscript (Backup auf gesonderte Platte)

      Ich habe mir ein kleines Script geschrieben, damit meine Backuppartition (die ich zuvor in /etc/fstab eingetragen habe) automatisch gemountet wird und ich entsprechende Notifications über das Backup in Gnome bekomme. Außerdem erstellt das Script anschließen immer eine Liste der installierten Pakete (Pacman / Archlinux). Ich habe dieses Script unter /etc/cron.daily sowie (in angepasster Form) nach /etc/cron.monthly gepackt, damit regelmäßige Backups abgelegt werden können. Falls Fehler beim Backup auftreten, werden diese auf der Backupplatte in einer errors.log gespeichert und es erscheint passende Benachrichtigung auf dem Desktop.

       

       

      Wer Interesse hat, darf das Script natürlich nach Belieben an die eigenen Bedürfnisse anpassen.. Garantie, dass das Script funktioniert, gibt’s natürlich nicht – Verbesserungsvorschläge sind immer willkommen! ;)