ubuntuusers.de

🚧 Am Sonntag, 5. Mai, werden ab 16 Uhr die Server aktualisiert und eine neue Inyoka-Version veröffentlicht. Das Portal wird mehrmals nicht verfügbar sein.

5. September 2014

Ich habe heute ein noch ausstehendes Wartungsupdate für Redundancy 2 veröffentlicht. Dieses Update beinhaltet noch einige interne Modifikationen, um die Geschwindigkeit etwas zu verbessern.

Das Update auf 1.9.14-git-beta4-5 fügt an die Version den Suffix “eol” an. EOL steht in diesem Falle für End-of-Life. Das bedeutet, wie es schon erahnen lässt, dass der “Unstable”-Entwicklungszweig nun auch offiziell eingestellt ist und nicht mehr aktiv entwickelt wird. In dringenden Fällen werde ich wohl auch noch kleinere Updates einpflegen. Jedoch sind in diesem Zweig keine großen Sprünge mehr zu erwarten ;)

Die gewöhnliche Information über den Entwicklungszweig im Infodialog wurde über einen Hinweis zum eingestellten Entwicklungszweig ersetzt,.

Schluss ist.

Schluss ist.

Das Update dient nur zu einer Überbrückung. Wenn wir Redundancy 1.9.15. so weit entwickelt haben sollten alle Redundancy-Installationen auf die neue Version migriert werden.

Die Gnome-Shell gibt es nun seit dreieinhalb Jahren. Sie war und ist vieldiskutiert und hat inzwischen eine Menge Konkurrenz quasi aus eigenem Hause bekommen. Neben einer Handvoll Varianten sind auch Forks entstanden. Im Ergebnis gibt es statt wie früher einem Gnome nun ein halbes Dutzend Linux-Desktops, auf altem oder neuem Gnome basierend. Dabei ist die Original-Shell im Prinzip ein genialer Desktop für Linux – scheitert letztendlich aber nicht nur am Babyentensyndrom der Benutzer. Ein versöhnlicher Rückblick auf die bisherige Entwicklung sowie eine Übersicht über den aktuellen Stand des Gnome-Desktops und seine Bedeutung für Linux.

Extended Desktop

Vor ziemlich genau 3 Jahren wurde an dieser Stelle prognostiziert, dass sich die Gnome-Shell in zwei Richtungen entwickeln könnte: entweder wieder zurück zum einstigen Gnome-2-Entwicklungsrhythmus, mit langsamer, aber stetiger Verbesserung – oder das Fortführen der radikalen Vereinfachungsstrategie, die ein homogenes Erscheinungsbild der Oberfläche quasi erzwingt.

„Entweder man kehrt wieder zum Entwicklungsmodell von Gnome 2 zurück, das wie ein Biotop langsam wuchs und sinnvolle Funktionen nach und nach integrierte – oder man hält die Shell möglichst uniform und vermeidet auch optionale Ergänzungen durch den Nutzer selbst.“

Schauen wir, was daraus geworden ist.

Innovation

Die Gnome-Shell ist das Modernste, was Linux oberflächentechnisch derzeit zu bieten hat. Während KDE beim klassischen Desktopparadigma geblieben ist, Unity MacOS kopiert und sich der Rest von Mate über Cinnamon bis XFCE und LXDE immer noch mehr oder weniger wie Windows 95 bedienen lässt oder sogar noch so aussieht, haben sich die Gnome-Leute wirklich mal etwas Neues einfallen lassen – und sich dadurch mit einem Schlag vom traditionellen zum avantgardistischen Desktop katapultiert. Die Gnome-Shell ist innovativ. Sie ist der erste Linux-Desktop, der der Windows-Taste eine zentrale Bedeutung einräumt, statt sie einfach mehr oder weniger ungenutzt auf der Tastatur versauern zu lassen. Das starre Konzept der für Linux typischen virtuellen Arbeitsflächen wurde aufgebohrt und stellt nun in Interaktion mit den Startern im Dock ein dynamisches Arbeitsflächensystem bereit, das sich flexibel an die jeweils aktuelle Arbeitssituation anpasst. Auch mit dem Verzicht auf ein klassisches Startmenü und stattdessen der Einführung einer bildschirmfüllenden Übersicht war Gnome Vorreiter.

Doch diese Innovationen haben nicht jedem gefallen und vor allem die bisherigen Gnome-2-Fans mächtig ratlos dastehen lassen. Als die Gnome-Shell auf die Welt losgelassen wurde, kam so mancher aus dem Staunen nicht mehr heraus. Dieser schlechte Witz sollte der Nachfolger des etablierten und weit verbreiteten Gnome 2 werden? Es sollte, aber es kam anders. Die Anwender flüchteten zu Alternativen wie XFCE, freundeten sich mit KDE an oder schwenkten auf die entstehenden Forks und Umbauten um. Sogar Linus Torvalds wünschte sich von den Fedora-Entwicklern einen Gnome-2-Fork. Das erledigten dann andere, unter den Fittichen von Linux Mint wurde Gnome 2 als Mate wiedergeboren, und die Gnome-3-Technik unter dem Namen Cinnamon zu einer traditionelleren Oberfläche gestrickt.

Konkurrenz aus dem eigenen Lager

Heute gehört Mate zum Lieferumfang fast aller gängigen Distributionen, Debian und Ubuntu machen es gerade zum offiziellen Bestandteil ihres Angebots, auch Cinnamon beschränkt sich nicht nur auf Linux Mint. Ubuntu, bis dato mit Gnome als Standard, lieferte die Gnome-Shell gar nicht erst aus, sondern etablierte die Eigenentwicklung Unity. Linux Mint stieg zu einer der großen Distributionen auf. Sogar Gnome-Förderer Nr. 1, Red Hat, lässt die Gnome-Shell nur in modifizierter Form auf die Kundschaft los. Fedora und Debian sind damit die letzten der großen Distributionen, die die Gnome-Shell als Standarddesktop installieren.


Sinnbild für die auseinandergehende Entwicklung: Das Kontrollzentrum von Mate …


… und die Systemeinstellungen der Gnome-Shell

Selbst hartgesottene Gnome-Shell-Fans kamen in der Regel nicht ohne Zuhilfenahme des Gnome-Tweak-Tools, einer erweiterten Konfiguration zurecht. Gnome sah sich zu Zugeständnissen genötigt. Erst wurde ein Erweiterungssystem geschaffen, das Ergänzungen der rudimentären Funktionen der Shell ermöglichte. Schließlich wurde auch noch der Fallback-Übergangsmodus aufgegeben, um Cinnamon-gleich einen Classic Modus standardmäßig parallel zur normalen Gnome-Shell anzubieten. Dadurch tummeln sich heute statt einem Gnome ganze 6 Desktopvarianten im Linuxbecken, die einen Gnome-Unterbau haben (Gnome 2, Mate, Gnome Fallback, Gnome-Shell, Cinnamon, Gnome Classic).

Design

Optisch setzt Gnome die klare Linie fort, die einst mit der Einführung des Clearlooks-Designs begann, das jedoch nicht mehr zeitgemäß wirkt. In der Gnome-Shell wirkt nichts mehr altbacken wie noch bei Gnome 2, dezente Farben und ein Spiel mit dem Kontrast aus dunklen und hellen Tönen bestimmen die Oberfläche. Shell und Anwendungsprogramme sind optisch getrennt, alles scheint durchdacht, ist visuell ansprechend und in elegante Formen gegossen. Optik und Funktion greifen nahtlos ineinander und ergeben in sich ein stimmiges Bild. Vom ersten Pixel bis zum letzten Fehlerklang-Tönchen stimmt hier alles. Zugegeben, grundsätzliche Smartphone-Einflüsse lassen sich nicht leugnen, was sich vor allem in der oberen Statusleiste ausdrückt, doch die Gnome-Shell bleibt als Desktopsystem erkennbar.

Im Grunde bläst die Shell das Fenstermanager-Konzept der kleinen Window Manager zum Desktoperlebnis auf und bringt damit ein altes Konzept unter dem Deckmäntelchen der Moderne zu neuem Glanz. Die Reduzierung aufs Wesentliche ist dabei der richtige Ansatz, um sich vor allem auch von anderen Oberflächen abzuheben, die sich dem Linuxanwender im Schnitt doch recht überfrachtet präsentieren.

Das Oberflächendesign war, ist und bleibt die Stärke des Gnome-Projekts, auch mit der Gnome-Shell. Die simple Eleganz des User Interface besticht, man merkt, dass hier fähige Designer am Werk waren, die nicht nur Wert auf ein elegantes Erscheinungsbild legen, sondern auch Ahnung von Kommunikationsdesign haben.

Der steinige Weg zu Erweiterungen

Der Geburtsfehler der Gnome-Shell dürfte indes gewesen sein, die Bedienung nicht nur weiter zu vereinfachen, sondern sie gerade dadurch im selben Zuge auch zu verkomplizieren – das passte nicht recht zusammen. Schickes Design und Funktionalität müssen sich nicht gegenseitig ausschließen. Leider tun sie’s oft, so auch bei der Gnome-Shell. Das Wegfallenlassen grundlegender Einstellungen und die Veränderung typischer Bedienmuster macht es eben schwieriger statt leichter, gewünschtes Verhalten zu realisieren. Diese simple Logik fand zumindest in den ersten Versionen der Shell keine Beachtung, so dass das Drama seinen Lauf nahm – die Forks und Abspaltungen waren vorprogrammiert.


Weiterhin im Beta-Modus: Beliebteste Erweiterungen für die Gnome-Shell

Das Entfernen des Herunterfahren-Punktes im Systemmenü (nur mit Alt-Taste zugänglich), die Veränderung des gewohnten Alt-Tab-Verhaltens oder das Ignorieren der Entfernen-Taste waren dabei nur die Spitze des Eisberges. Viele Nutzer beklagten sich über lange Mauswege und das Fehlen als essentiell empfundener Funktionen. Auch Nutzer, die sich wohlgesinnt auf das Gnome-Shell-Erlebnis einlassen und gewillt sind, sich neue Arbeitsweisen anzugewöhnen, geraten mit der grundlegenden Bedienphilosophie in Konflikt.

Die Einführung der Erweiterungen war im Nachhinein betrachtet das Beste, was Gnome tun konnte, denn letztlich wird die Gnome-Shell für viele Anwender erst durch Erweiterungen produktiv nutzbar und somit auch für Nutzer interessant, die mehr möchten als mit der Desktopumgebung nur den Browser zu starten. Die Shell ist mit Erweiterungen heute tatsächlich gut zu benutzen; diese schließen die Lücken, die die Gnome-Shell bewusst in die Oberfläche geschlagen hat.

Auch wenn die Etablierung des Erweiterungssystems ein Schritt in die richtige Richtung war, kam er dennoch zu spät, ebenso wie die Einführung des Classic-Modus auf Gnome-Shell-Basis. Die Diskussion unter den Entwicklern, ob Erweiterungen überhaupt offiziell zugelassen werden sollten, da sie das ursprüngliche Konzept konterkarierten, verzögerte die Einführung der Erweiterungen – aber sie war durchaus berechtigt, denn die aufoktroyierte Simplizität geht tatsächlich flöten, wenn zu viele Erweiterungen installiert werden. Die Gnome-Shell gleicht dann eher einer User-Interface-Katastrophe statt einer übersichtlichen Lösung. Vielleicht auch deshalb ist das Angebot von Erweiterungen immer noch halbherzig, eine standardmäßige Integration in der Shell gibt es nicht, die Verwaltung erfolgt Plug-in-gestützt primär über den Webbrowser – und die Erweiterungsseite ist noch immer als Beta gekennzeichnet.

Arrangieren oder aufgeben

Die Nutzer, die Gnome nicht den Rücken gekehrt haben, scheinen sich damit zu arrangieren und sich die Gnome-Shell nach ihren Wünschen zurechtzubasteln. Zusätzliche Themes, ein Anwendungsmenü, ein Ordnermenü und das klassische Alt+Tab-Verhalten zählen zu den beliebtesten Erweiterungen. Dennoch bleiben Merkwürdigkeiten im Bedienkonzept oder Einschränkungen, die sich auch durch Erweiterungen kaum geradebiegen lassen.

Gnome wirbt auf seiner Webseite mit dem Slogan „puts you in control“. Oder in den jüngsten Release Notes: „Für 3.12 haben wir mit unseren Nutzern zusammengearbeitet, um das GNOME 3-Erlebnis zu vervollständigen.“ Das wirkt angesichts des ständig abnehmenden Funktionsumfangs wie Realsatire. Wobei man auf die Idee kommen könnte, dass Vervollständigung hierbei nicht für die Ergänzung von Funktionen, sondern eben für die vervollständigte Reduzierung des Leistungsumfanges steht. Neuerungen bestehen überproportional aus Änderungen des Erscheinungsbildes, Modifikationen am Theme, neue Icons, geändertes User Interface.

Marketing beherrscht das Gnomeprojekt, aber Nutzerwünsche werden in der Regel abgebügelt. Die geteilte Ansicht flog aus Nautilus, zuletzt wurde die Transparenz im Terminal abgeschafft, die Bitte im Bugtracker, die Funktion wiederherzustellen, vom Entwickler mit einem schroffen „Nein.“ beschieden. Aktuell wird die graphische Autostart-Funktion aus Gnome entfernt, sodass persönliche Startbefehle künftig im Texteditor erstellt werden müssen.

Fazit

Keine der eingangs beschriebenen, einst prognostizierten Szenarien ist eingetreten, Gnome hat eine klare Entscheidung vermieden. Oder man könnte auch sagen: beide Prognosen sind wahr geworden. Weder wurde zurück zum alten Entwicklungsrythmus gefunden, bei dem nach und nach vermisste Funktionalität ergänzt wird, noch wurden Anpassungen durch Dritte verhindert. Gnome hat den Mittelweg gewählt, der jedoch eine klare Positionierung vermissen lässt. Gnome entwickelt sich weiter, baut aber kaum neue Funktionen ein, sondern streicht im Gegenzug sogar weiter Bestandteile aus der Oberfläche. Stattdessen wurden die Erweiterungen initiiert, die nun primäre Anlaufstelle sind für alle, die mit der nackten Shell nicht recht zurechtkommen. Die Nutzer haben damit quasi selbst dafür gesorgt, dass es bei Gnome mit der Entwicklung weitergeht. Die aktuelle Gnome-Shell lebt auch von ihren Erweiterungen, doch das ist kein Ruhmesblatt für die Gnome-Shell, es behält den Charme der Notlösung und hat den Charakter einer Bastelei.

Die Gnome-Shell ist schick gemacht. Und durchdacht. Und fußt auf moderner Technik. Sie macht Spaß. Und dann scheitert’s an Kleinigkeiten. Sie macht es den ambitionierten Anwendern, die gerne mehr Wahlmöglichkeiten innerhalb der Shell hätten, unnötig schwer. Das Tragische ist nicht nur, dass sämtliche Abspaltungen und Variationen nicht notwendig gewesen wären, wenn das Gnome-Projekt seine Anwender nicht zu ihrem Glück zwingen würde und die Gnome-Shell konfigurierbarer gestaltet hätte – für mehr Freiheit in freier Software, auch für den Anwender.

Das Tragische ist vor allem, dass die angestrebte Homogenität des Desktop-Erlebnisses von Gnome selbst unnötigerweise torpediert wurde. Gnome wollte nicht, dass Nutzer ihre Desktops konfigurieren. Das jedoch erst hat dazu geführt, dass sich statt einer einheitlich-schlichten Gnome-Oberfläche nun eine ganze Reihe alternativer Oberflächen auf den Linux-Bildschirmen tummeln – und dass die Gnome-Shell durch Erweiterungen regelrecht zerpflückt werden kann. Die Vision der Entwickler sollte möglichst nicht beschädigt werden, Gnome überall gleich aussehen. Das ging im Ergebnis voll daneben, im schlimmsten Fall läuft nicht mal mehr Gnome bei den Nutzern.


Sechs bis sieben Mal Linuxoberfläche allein auf Gnome-Basis

Vielfalt auf dem Linux-Desktop muss nicht schlecht sein, aber es verhindert langfristig den Durchbruch als verbreiteteres Desktopsystem. Mit bis zu sechs verschiedenen, parallel angebotenen Oberflächen, die alle irgendwie mit Gnome zu tun haben, wird Torvalds Ziel von Linux als selbstverständlichem PC-Betriebssystem Utopie bleiben. Da hilft auch die Strahlkraft eines Ubuntus nicht weiter, das die siebte Variation von Gnome auf den Markt wirft. Die Gnome-Shell wäre die ideale Linuxoberfläche, sie könnte Linux ein unverwechselbares Gesicht geben, das nicht wirkt wie ein Windows- oder Mac-Abklatsch – wäre sie nicht durch eine übertriebene Simplizitäts-Attitüde ins Hintertreffen geraten. So ist sie heute nur noch eine Wahl unter vielen. Tragisch.


Dieser Artikel ist Bestandteil der „Not my Desktop“-Reihe.
Bereits erschienen:

Wird GNOME wieder zum Zwerg?
Eine Woche Gnome 3: Der uniformierte Desktop
Strategien zur GNOME-3-Vermeidung
Gnome-Shell – es wird immer unübersichtlicher
Endlich: Gnome rudert zurück
Die Gnome-Shell macht auf alt
Die Tragik der Gnome-Shell
Der Gnome-Shell eine Chance

Kann hin und wieder hilfreich und sinnvoll sein. So habe ich etwa das Plex Home Theater auf Sid installiert, das “libass4″ verlangt und “libass5″ nicht akzeptiert.
Die Commands zum aus- und einpacken einer solchen Datei habe ich nicht im Kopf, dafür brauche ich es einfach zu selten. Google hilft mir, wenn es wieder soweit ist, zuverlässig.

Dieses mal führte die Suche mich zu einem kleinen Script:
“vi” ersetze ich jedoch durch “nano”.

Die neue Datei lege ich als “debchanger” in “/usr/local/bin” ab:

1
sudo nano /usr/local/bin/debchanger

Der Inhalt des Scripts:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
#!/bin/bash
 
if [[ -z "$1" ]]; then
  echo "Syntax: $0 debfile"
  exit 1
fi
 
DEBFILE="$1"
TMPDIR=`mktemp -d /tmp/deb.XXXXXXXXXX` || exit 1
OUTPUT=`basename "$DEBFILE" .deb`.modfied.deb
 
if [[ -e "$OUTPUT" ]]; then
  echo "$OUTPUT exists."
  rm -r "$TMPDIR"
  exit 1
fi
 
dpkg-deb -x "$DEBFILE" "$TMPDIR"
dpkg-deb --control "$DEBFILE" "$TMPDIR"/DEBIAN
 
if [[ ! -e "$TMPDIR"/DEBIAN/control ]]; then
  echo DEBIAN/control not found.
 
  rm -r "$TMPDIR"
  exit 1
fi
 
CONTROL="$TMPDIR"/DEBIAN/control
 
MOD=`stat -c "%y" "$CONTROL"`
nano "$CONTROL"
 
if [[ "$MOD" == `stat -c "%y" "$CONTROL"` ]]; then
  echo Not modfied.
else
  echo Building new deb...
  dpkg -b "$TMPDIR" "$OUTPUT"
fi
 
rm -r "$TMPDIR"

Abschließend als ausführbar markieren:

1
sudo chmod +x /usr/local/bin/debchanger

Die Benutzung ist einfach: “debchanger package.deb” verändert das Paket on-the-fly. Das neue Paket wird als “package-modified.deb” im aktuellen Arbeitsverzeichnis abgelegt.

3. September 2014

Wer oft per SSH unterwegs ist wird eventuell noch einen kleinen Vorteil aus den folgenden Konfigurationen ziehen können.
Mich störte es zum Beispiel, immer wieder ein Passwort für den SSH Agent eingeben zu müssen wenn ich auf meinen Login-Server verbinde, von welchem aus ich alle anderen Server ohne VPN erreiche.

SSH Agent

Man kann nun in seinem .ssh Ordner eine extra Datei erstellen, oder den folgenden Inhalt einfach in die .bashrc schreiben:

SSH_ENV=$HOME/.ssh/environment

function start_agent {
     echo "Initialising new SSH agent..."
     /usr/bin/ssh-agent | sed 's/^echo/#echo/' > ${SSH_ENV}
     echo succeeded
     chmod 600 ${SSH_ENV}
     . ${SSH_ENV} > /dev/null
     /usr/bin/ssh-add;
}

# Source SSH settings, if applicable

if [ -f "${SSH_ENV}" ]; then
     . ${SSH_ENV} > /dev/null
     #ps ${SSH_AGENT_PID} doesn't work under cywgin
     ps -ef | grep ${SSH_AGENT_PID} | grep ssh-agent$ > /dev/null || {
         start_agent;
     }
else
     start_agent;
fi

Quelle: cygwin@cygwin.com mailing list

Damit wird ein SSH Agent von allen Login Sessions aufgerufen. Will man, dass dieser nach dem letzten Logout wieder geschlossen wird, fügt man noch folgendes hinzu:

trap stop_agent 0 SIGTERM SIGKILL

SSH Shared Connection

Wenn man auf Systemen arbeitet auf die man nicht per SSH Key als Authentifizierung zugreift, so kann man eine Verbindung freigeben, um zu erreichen, dass alle weiteren die Login Session übernehmen die auf den selben Host verbinden. Weiterer Vorteil, auch für Hosts, bei denen man sich mittels Key anmeldet: Es wird ein UNIX-Socket geteilt und keine zusätzliche Verbindung aufgebaut. Das kann generell zu Vorteilen bei der Geschwindigkeit führen, ich habe sehr gute Erfahrung damit sammeln können, wenn ich er UMTS online bin.

Konfiguriert wird die SSH Shared Connection in .ssh/config:

Host *
  ControlPath ~/.ssh/seed-%l-%r@%h:%p
  ControlMaster auto

Wer hat nicht schon mal ein Passwort vergessen? Genau. Wir alle standen schon vor dem Problem. Besonders ärgerlich ist es Passwörter zu vergessen, die PGP-Schlüssel entsperren. Das einzige was bisher in so einem Fall zu tun blieb war entweder Passwörter durchprobieren, oder das im Prozess der Schlüsselerzeugung generierte Widerrunfszertifikat in die freie Wildbahn zu entlassen und ein neues Schlüsselpaar zu erzeugen.

In meinem Fall war mir jedoch die Struktur des verloren gegangenen Passwortes relativ klar. Statt jetzt händisch alle möglichen Variationen aus Groß- und Kleinschreibung durchzuprobieren, fand ich das Programm rephrase.

Installation aus den Paketquellen

Ab 14.04 befindet sich dies in den Paketquellen von Ubuntu und kann mit einem einfachen Aufruf von

sudo apt-get install rephrase

installiert werden.

manuelle Installation mittels Quellpaket

Für ältere Ubuntuversionen muss auf das sehr übersichtliche Quellpaket zurück gegriffen werden, dass sich auf der Webseite des Entwicklers finden und herunterladen lässt.

Die Installation ist in diesem Fall etwas komplexer. Um den Zugriff auf die Schlüsselverwaltung sicher zu stellen, gilt es zunächst zu klären, wo auf dem System GPG installiert ist.

which gpg

In meinem Fall fand sich GPG unter /usr/bin/gpg. Dieser Ort muss ins Makefile, was sich mit folgendem Aufruf erledigen lässt:

make GPG=/usr/bin/gpg

Im Makefile lassen sich auch weitere Details festlegen, die für mich nicht weiter relevant waren. In der mitgelieferten ReadMe-Datei werden diese jedoch erklärt.

Nun muss das Programm nur noch installiert werden:

sudo make install

Nutzung

Auch die Nutzung ist sehr sinnvoll gestaltet. Zunächst braucht es die Schlüssel-ID von dem Schlüssel zu dem das Passwort fehlt. Diese lässt sich zum Beispiel in der Schlüsselverwaltung von GPG oder eurem Mailprogramm finden uns ist achtstellig.

Zum Start wird rephrase genau diese Nummer als Argument übergeben:

sudo rephrase ABCD1234

Im nächsten Schritt seid ihr aufgefordert ein Muster einzugeben, dass durchprobiert werden soll. Für jede Stelle des Passwort lässt sich innerhalb einer Klammer angeben, welche Zeichen ausprobiert werden sollen.

Für ein Passwort mit sechs Zeichen sieht das zum Beispiel so aus: (U|u)(b|6)untu

In diesem Fall probiert das Programm folgende Varianten durch:

  • Ubuntu
  • ubuntu
  • U6untu
  • u6untu

Pro Klammer lassen sich auch mehr als zwei Varianten probieren. Zum Beispiel führt (B|b|8|6) dazu, dass das Programm an dieser stelle alle vier Zeichen durchprobiert.

Auch ein fehlenden eines Zeichen kann an einer Stelle mittels (B|b|) ausgedrückt werden.

In der Praxis kann ich nur empfehlen, dass Passwortmuster, dass ihr eingebt nicht direkt in das Programm einzugeben sondern entweder auf einem Zettel oder in einer Textdatei zwischen zu speichern. Aus Sicherheitsgründen zeigt das Programm selbst das Muster bei der Eingabe nicht an, was es insbesondere bei längeren Passwörtern nicht leicht macht, das Muster im Programm selbst zu entwickeln.

Darüber hinaus wird das gefundene Passwort (ebenfalls aus Sicherheitsgründen) nicht im Klartext angezeigt sondern als Zeichenfolge in der Form 1 2 1 1 1 1. Wobei jede Ziffer die Position der zur Verfügung gestellten Zeichen an der Stelle angibt. In unserem Beispiel also fast immer das erste zur Verfügung gestellte Zeichen, außer an zweiter Stelle, wo das zweite Zeichen benötigt wird.

So ergibt sich nach Abgleich mit unserem Muster:

Stelle 1 2 3 4 5 6
Muster (U|u) (b|6) u n t u
Ergebnis 1 2 1 1 1 1
Passwort U 6 u n t u

Ein wesentlich komplexeres Beispiel mit weiteren Erläuterungen und Hinweisen zu Sonderzeichen findet sich ebenfalls in der ReadMe-Datei.

Je nach Länge des vergessenen Passwortes braucht das Programm sehr lang zum Durchprobieren. Ein Blick auf meine CPU-Auslastung legt die Vermutung nah, dass es nicht besonders effektiv dabei ist in kurzer Zeit viele Kombinationen durch zu probieren.

1. September 2014

Noch im August kam die dritte Entwicklerversion.

Auf den ersten Blick scheint sie recht dick zu sein, aber eigentlich ist nichts wirklich aufregendes dabei. Dass es ein paar Commits mehr sind als bei -rc2 schiebt Torvalds auf die Tatsache, dass die Kernel-Entwickler von ihren Reisen zum Kernel Summit nun zurückgekehrt sind. Und die erst einmal erschreckend hohe Zahl der geänderten Textzeilen lässt sich darauf zurückführen, dass der usbip-Code nach über vier Jahren der Arbeit aus dem Staging-Bereich zu den Kernel-Treibern und den Userspace-Tools umziehen durfte. „usbip“ ermöglicht es, USB-Geräte eines Hosts über das Netzwerk anderen Systemen zur Verfügung zu stellen.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.17-rc1 11 528 9 947 629 361 651 438 16. Aug 2014 13
3.17-rc2 266 234 2 863 1 013 25. Aug 2014 9
3.17-rc3 307 394 13 992 13 018 31. Aug 2014 6
Gesamt 12 103 10 257 645 361 664 614 28

* Tage seit dem letzten rc/Release

Quelle: Linux Kernel Mailing List

Mein Laptop ist mit einer fest eingebauten Datenwanze namens Ericsson Business Mobile Networks BV zu mir gekommen. Ein nerviges Feature des Modems ist das ständige Nachfragen des Netzwerkmanagers nach der PIN wenn eine SIM Karte einliegt – auch wenn man bei der Option „Automatisch entsperren“ einen Haken setzt. Das ist auf Dauer recht nervig, da ich 1,2 mal die Woche mobiles Internet benötige, aber dafür ständig belästigt werde. Um die Karte zu entfernen muß der Akku des Laptops entfernt werden (uptime im Eimer) und kleine Dinge wie SIM-Karten gehen bei mir schnell verloren. Eine Softwarelösung muß also her!

Die Pin läßt sich dauerhaft mit dem Befehl gsmctl aus dem Paket gsm-utils speichern. Dafür muß erst das Device File mit

ms@w530 ~ $ for n in `ls /sys/class/*/*{ACM,wdm}*/device/interface`;do echo $(echo $n|awk -F '/' '{print $5}') : $(cat $n);done

gefunden werden.

ttyACM0 : H5321 gw Mobile Broadband Modem
ttyACM1 : H5321 gw Mobile Broadband Data Modem
ttyACM2 : H5321 gw Mobile Broadband GPS Port
cdc-wdm0 : H5321 gw Mobile Broadband Device Management
cdc-wdm1 : H5321 gw Mobile Broadband USIM Port

In meinem Fall kann man über /dev/ttyACM0 mit dem Modem sprechen und die Pin mit dem Befehl

sudo gsmctl -d /dev/ttyACM0 -o unlock sc all 1234

dauerhaft setzen.

Das Modem kann auch deaktiviert werden. Dafür als Superuser

rfkill block wwan

in die /etc/rc.local eintragen.

Die Seite zu dem Modem im ThinkWiki verrät noch mehr über dieses Modem, auch wie man den GPS Chip in Gang setzten kann – hab ich noch nicht gemacht und nicht so schnell vor.

Der Beitrag Sim Karte dauerhaft in Ubuntu / Linux Mint entsperren / dauerhaft deaktivieren. erschien zuerst auf Unerklärliches am Rande.

Mein Laptop ist mit einer fest eingebauten Datenwanze namens Ericsson Business Mobile Networks BV zu mir gekommen. Ein nerviges Feature des Modems ist das ständige Nachfragen des Netzwerkmanagers nach der PIN wenn eine SIM Karte einliegt – auch wenn man bei der Option „Automatisch entsperren“ einen Haken setzt. Das ist auf Dauer recht nervig, da ich 1,2 mal die Woche mobiles Internet benötige, aber dafür ständig belästigt werde. Um die Karte zu entfernen muß der Akku des Laptops entfernt werden (uptime im Eimer) und kleine Dinge wie SIM-Karten gehen bei mir schnell verloren. Eine Softwarelösung muß also her!

Die Pin läßt sich dauerhaft mit dem Befehl gsmctl aus dem Paket gsm-utils speichern. Dafür muß erst das Device File mit

ms@w530 ~ $ for n in `ls /sys/class/*/*{ACM,wdm}*/device/interface`;do echo $(echo $n|awk -F '/' '{print $5}') : $(cat $n);done

gefunden werden.

ttyACM0 : H5321 gw Mobile Broadband Modem
ttyACM1 : H5321 gw Mobile Broadband Data Modem
ttyACM2 : H5321 gw Mobile Broadband GPS Port
cdc-wdm0 : H5321 gw Mobile Broadband Device Management
cdc-wdm1 : H5321 gw Mobile Broadband USIM Port

In meinem Fall kann man über /dev/ttyACM0 mit dem Modem sprechen und die Pin mit dem Befehl

sudo gsmctl -d /dev/ttyACM0 -o unlock sc all 1234

dauerhaft setzen.

Das Modem kann auch deaktiviert werden. Dafür als Superuser

rfkill block wwan

in die /etc/rc.local eintragen.

Die Seite zu dem Modem im ThinkWiki verrät noch mehr über dieses Modem, auch wie man den GPS Chip in Gang setzten kann – hab ich noch nicht gemacht und nicht so schnell vor.

Der Beitrag Sim Karte dauerhaft in Ubuntu / Linux Mint entsperren / dauerhaft deaktivieren. erschien zuerst auf Unerklärliches am Rande.

Bei einer Aktualisierung eines Ubuntusystems mittels des Paketmanagers wurde der Vorgang am Ende mit der Zeile:

The link /vmlinuz.old is a damaged link
Removing symbolic link vmlinuz.old 
 you may need to re-run your boot loader[grub]

abgeschlossen. Die Lösung für das Problem ist dabei relativ unkompliziert. Es reicht auf der Konsole:

update-grub

einzugeben. Damit wird die menu.lst erneut geschrieben.

OpenSSL bringt umfassende Werkzeuge mit, um eine eigene, kleine Certificate Authority (CA) betreiben zu können. Die Nutzung einer eigenen CA ist besonders dann sinnvoll, wenn mehrere Dienste über SSL/TLS kostenlos abgesichert werden sollen. Neben dem Nachteil, dass die eigene CA vor Benutzung zuerst auf den Clientrechnern bekannt gemacht werden muss, gibt es aber auch einen Vorteil: Mit einer CA unter der eigenen Kontrolle ist man im Zweifel auf der sicheren Seite: In den letzten Jahren wurden immer wieder Fälle bekannt, in denen große Certificate Authorities falsche Zertifikate ausgestellt haben. Es gibt Grund genug, die Vertrauenswürdigkeit großer CAs anzuzweifeln.

Mit dieser Anleitung werdet ihr in der Lage sein, beliebig viele Zertifikate für eure Dienste ausstellen zu können, die in jedem Browser als gültig erkannt werden, sofern vorher das Root-Zertifikat eurer CA importiert wurde.

Certificate Authority (CA) erstellen

Zu Beginn wird die Certificate Authority generiert. Dazu wird ein geheimer Private Key erzeugt:

openssl genrsa -des3 -out ca-key.pem 2048

Der Key trägt den Namen „ca-key.pem” und hat eine Länge von 2048 Bit. Wer es besonders sicher haben will, kann auch eine Schlüssellänge von 4096 Bit angeben. Die Option „-des3″ führt dazu, dass der Key mit einem Passwort geschützt wird. Die Key-Datei der CA muss besonders gut geschützt werden. Ein Angreifer, der den Key in die Hände bekommt, kann beliebig gefälsche Zertifikate ausstellen, denen die Clients trauen. Die Verschlüsselung dieses Keys mit einem Passwort gibt zusätzlichen Schutz. Das gewünschte Passwort wird bei der Generierung abgefragt.

Einen geheimen Key für die CA gibt es nun also schon – fehlt noch das Root-Zertifikat, das von den Clients später importiert werden muss, damit die von der CA ausgestellten Zertifikate im Browser als gültig erkannt werden. Das Root-Zertifikat „ca-root.pem” wird mit folgendem Befehl erzeugt: (ggf. wird das Passwort für den vorher erstellen Key abgefragt!)

openssl req -x509 -new -nodes -extensions v3_ca -key ca-key.pem -days 1024 -out ca-root.pem

In diesem Fall wird die CA 1024 Tage lang gültig bleiben. Während der Generierung werden das Passwort für die CA und einige Attribute abgefragt (hier ein Beispiel):

Country Name (2 letter code) [AU]:DE
State or Province Name (full name) [Some-State]:BY
Locality Name (eg, city) []:Landshut
Organization Name (eg, company) [Internet Widgits Pty Ltd]:trashserver.net
Organizational Unit Name (eg, section) []:IT
Common Name (eg, YOUR name) []:trashserver.net
Email Address []:sslmaster@domain.com

Root-Zertifikat auf den Clients importieren

Damit ein Rechner die selbst ausgestellten Zertifikate akzeptiert, muss auf diesem Rechner das Root-Zertifikat (Public Key der CA) importiert worden sein.

Mozilla Firefox / Thunderbird

Mozilla Firefox verwaltet Zertifikate selbst. Ein neues Zertifikat wird importiert unter „Einstellungen => Erweitert => Zertifikate => Zertifikate anzeigen => Zertifizierungsstellen => Importieren”. Wählt die Option „Dieser CA vertrauen, um Websites zu identifizieren”.

Chromium / Google Chrome

„Einstellungen” => „Erweiterte Einstellungen anzeigen” (unten) => „HTTPS/SSL” => „Zertifikate verwalten” => „Zertifizierungsstellen” => „Importieren” => „Diesem Zertifikat zur Identifizierung von Websites vertrauen”

Debian, Ubuntu

sudo cp ca-root.pem /usr/share/ca-certificates/myca-root.crt
sudo dpkg-reconfigure ca-certificates

=> Neue Zertifikate akzeptieren

Ein neues Zertifikat ausstellen

Die CA ist nun fertig und kann genutzt werden. Zeit, das erste Zertifikat auszustellen!

Grundlage ist immer ein privater Schlüssel. Wie auch bei der CA wird dieser Private Key erzeugt:

openssl genrsa -out zertifikat-key.pem 4096

An dieser Stelle ein Passwort zu setzen ist in den meisten Fällen nicht besonders sinnvoll. Ein Webserver, der des Zertifikat verarbeitet, müsste bei jedem Start das Passwort abfragen. Das ist in der Praxis mehr lästig und hinderlich als nützlich. (=> Passwortfelder einfach leer lassen). Die Schlüssellänge wurde hier auf paranoide 4096 Bit gesetzt. 2048 sind auch okay ;)

Nun wird eine Zertifikatsanfrage erstellt, bei der wieder einige Attribute abgefragt werden. Besonderheit ist hier: Das Feld „Common Name” muss den Hostnamen des Servers tragen, für den es gültig sein soll. Soll z.B. die Verbindung zum Rechner mit der IP-Adresse „192.168.2.2” mit dem Zertifikat abgesichert werden, muss die IP-Adresse hier angegeben werden. Soll das Zertifikat dagegen für die Domain thomas-leister.de gelten, muss das ebenso eingetragen werden. Es ist auch möglich, sog. Wildcard-Zertifikate zu erstellen. Wird z.B. „*.thomas-leister.de” als Common Name angegeben, gilt das Zertifikat für alle Domains von thomas-leister.de, also login.thomas-leister.de, start.thomas-leister.de usw. – nicht aber für thomas-leister.de selbst. Das Challenge Passwort wird nicht gesetzt (leer lassen).

openssl req -new -key zertifikat-key.pem -out zertifikat.csr -sha512

Sobald die Zertifikatsanfrage „zertifikat.csr” fertiggestellt ist, kann sie von der CA verarbeitet werden. Dabei entsteht der öffentliche Schlüssel (Public Key) zum angefragten Zertifikat. Dieser wird zusammen mit dem Private Key des Zertifikats für die Verschlüsselung benötigt.

Mit folgendem Befehl wird ein Public Key „zertifikat-pub.pem”ausgestellt, der 365 Tage lang gültig ist:

openssl x509 -req -in zertifikat.csr -CA ca-root.pem -CAkey ca-key.pem -CAcreateserial -out zertifikat-pub.pem -days 365

Die Zertifizierungsanfrage zertifikat.csr kann gelöscht werden – sie wird nicht mehr benötigt. Übrig bleiben Private Key und Public Key des neuen Zertifikats (zertifikat-key.pem und zertifikat-pub.pem) sowie Private- und Public Key der CA (ca-key.pem und ca-root.pem)

Die Zertifikate nutzen

In der Webserver-Konfiguration müssen üblicherweise drei Zertifikatsdateien angegeben werden:

  • Private Key des Zertifikats (zertifikat-key.pem)
  • Public Key des Zertifikats (zertifikat-pub.pem)
  • Public Key der CA (ca-root.pem)

Der Public Key der CA kann auch an die Public Key Datei des Zertifikats angehängt werden:

cat ca-root.pem >> zertifikat-pub.pem

Diese Integration ist immer dann nötig, wenn es keinen Parameter in der Konfiguration gibt, bei dem man das Rootzertifikat einer CA angeben kann – beim XMPP Server Prosody und beim Webserver Nginx ist das z.B. der Fall: Hier können nur Public- und Private Key des Zertifikats angegeben werden.

Wie ihr SSL/TLS für euren Webserver nutzt könnt ihr in diesen beiden Beiträgen nachlesen:

 

Quellen: http://datacenteroverlords.com/2012/03/01/creating-your-own-ssl-certificate-authority/

Leute wie ich treffen ja des Öftern auf andere Leute, welche gelegentlich die Sicherheit ihrer Geräte fundamental überschätzen. Dabei ist das grundsätzliche Auslesen von Daten, wenn man ein Gerät direkt vor sich hat, in den meisten Fällen sehr einfach. Trotzdem trifft man immer wieder auf Aussagen wie diese:

Aber ich hab doch ein Passwort!!1!
Aus diesem Grunde im Folgenden ein paar Möglichkeiten (inklusive gewisser Gegenmaßnahmen) um Daten jeglicher Art auszulesen. Dabei muss man auf keine „Hacker-Tools“ zurückgreifen, Bordmittel oder alternative Betriebssysteme reichen hierfür vollkommen aus. Zumal der Begriff „Hacker-Tool“ für gewöhnlich sowieso nur in Medien Verwendung findet, um Werkzeugen die für einen spezifischen Zweck geschaffen wurden negative Eigenschaften anzudichten.

Datenzugriff, Möglichkeit I

Eine Möglichkeit besteht darin ein Live-System von USB-Stick zu booten. Anschließend kann man die einzelnen Partitionen einhängen und hat so vollen Zugriff auf das System. Möglich ist dies zum Beispiel mit Distributionen wie Ubuntu (und dessen Derivate, etwa Xubuntu welches etwas ressourcenschonender ist).

Gegenmaßnahme
  • Das Booten von externen Datenträgern unterbinden indem man die Bootreihenfolge anpasst (entsprechende Einstellungen finden sich im BIOS bzw. UEFI)
  • Und ein BIOS bzw. UEFI-Kennwort setzen, damit diese Einstellungen nicht einfach geändert werden können

Datenzugriff, Möglichkeit II

Angenommen ein BIOS bzw. UEFI-Kennwort ist gesetzt und man kann das Gerät zerlegen, gibt es eine weitere, einfache Möglichkeit: Festplatte ausbauen und an den eigenen Rechner hängen. Das ist nicht besonders raffiniert, funktioniert aber.

Gegenmaßnahme
  • Festplattenverschlüsselung nutzen, entweder nur für private Daten oder mittels Vollverschlüsselung des gesamten Systems
  • Manche Rechner bieten zudem ein Intrusion Detection System an. Damit kann man das Auslesen der Daten zwar nicht verhindern, allerdings kann man so erkennen, dass der eigene Rechner auseinandergeschraubt wurde

GNU/Linux, Möglichkeit I

Ausgehend davon, dass keine Verschlüsselung genutzt wird (zumindest nicht für die root-Partition), das BIOS/UEFI das Booten von einem externen Datenträger untersagt und man auch keine Möglichkeit hat die Festplatte auszubauen, so kann man immer noch über den Bootloader Zugriff auf das System erhalten. Dazu muss man wissen, dass ein GNU/Linux-System nach dem Starten des Kernels einen Prozess spawnt, welcher die PID 0 trägt und für den kompletten Start sowie die Verwaltung des Systems zuständig ist. Früher nutzte man dazu SysVinit, in Ubuntu dann lange Zeit Upstart und in Zukunft wird wohl die Mehrheit auf systemd setzen. Es gibt natürlich noch weitere Init-Systeme, aber darum geht es hier auch nicht. Man kann nämlich, anstelle des Init-Systems, eine Shell starten. Dazu hängt man im Bootloader (das häufig verwendete GRUB2 ist mittels drücken der Shift-Taste zu erreichen) an die Kernel-Befehlszeile (eigentlich „Kernel command-line“ genannt) einen Parameter an, welcher den ersten zu startenden Prozess angibt (hier beispielhaft für ein Ubuntu-System):
linux /boot/vmlinuz-3.13.0-33-generic root=/dev/sda1 ro quiet splash init=/bin/bash
Das Anhängsel init=/bin/bash sorgt nun dafür, dass man anstelle des Init-Systems eine BASH-Shell zu sehen bekommt. Wird das Dateisystem nur lesend eingehangen, so muss dieses nach dem Start (sofern man am System etwas ändern möchte) für Schreibzugriffe neu einhangen werden:
# mount -o remount,rw /
Anschließend kann man noch das Passwort für root ändern:
# passwd root
Enter new UNIX password: 
Retype new UNIX password: 
passwd: Password updates successfully
#
Alternativ könnte man auch einen neuen Benutzer hinzufügen, mit dem man fortan Zugriff auf das System hat. Nachdem man die Änderungen vollzogen hat kann man wieder das ursprüngliche Init-System seinen Dienst verrichten lassen:
# /sbin/init
Aus unerklärlichen Gründen geht das natürlich bei einem aktuellen Ubuntu nicht. Und auch ein Herunterfahren oder Neustarten jeglicher Art wird verweht. Bleibt also nur noch die Änderungen manuell auf die Platten schreiben zu lassen:
# sync
Und anschließend den Rechner, obwohl für die Hardware nicht zu empfehlen, gewaltsam auszuschalten (indem man ihn beispielsweise von der Stromversorgung trennt). Danach startet man diesen neu und kann sich als root-User am System anmelden.

GNU/Linux, Möglichkeit II

Anstatt alles per Hand zu machen kann man auch eine praktische Funktion nutzen, die manche GNU/Linux-Distributionen von Haus aus sowieso mitbringen: Den Recovery-Modus. Dazu muss man, wie bereits weiter oben schon einmal erwähnt, in den Bootloader gelangen (etwa durch gedrückthalten der Shift-Taste) und kann nun das Recovery-System booten. Das funktioniert natürlich nur, wenn man keine Festplattenverschlüsselung nutzt. Vorteil ist, dass ein gesperrtes BIOS bzw. UEFI kein Hindernis darstellt. Im Recovery-Modus hat man in der Regel root-Rechte und somit vollen Zugriff auf das System.

Gegenmaßnahme
  • Bootloader sperren, wie man hierbei genau vorgehen muss steht in der jeweiligen Dokumentation

Android

In Android gibt es ein Stück Software welches sich Android Debug Bridge (kurz ADB) nennt und den Zugriff über ein angeschlossenes USB-Kabel als mittlerweile auch über WLAN/LAN erlaubt. Normalerweise läuft adb nicht im Hintergrund, es gibt aber erstaunlich viele Geräte welche adb trotzdem aktiviert haben. Um auf ein Gerät zugreifen zu können braucht man eine lauffähige Instanz der ADB-Software auf dem Rechner und ein USB-Verbindungskabel, anschließend kann man sein Glück versuchen, wenn auch dies meistens am Gerät bestätigt werden muss:
$ adb shell
shell@device:/ $ exit
$
Bei gerooteten Geräten kann man zusätzlich mit dem Befehl su root-Rechte erlangen, sofern dies freigeschaltet ist. Damit hat man vollen Zugriff auf das System.

Gegenmaßnahme
  • Unter Einstellungen → Entwickleroptionen → Android-Debugging den Haken herausnehmen

Fazit

Es ist wie bereits erwähnt oftmals erstaunlich einfach auf ein Gerät Zugriff zu erhalten. Natürlich kann man sich dagegen wehren, muss dafür gelegentlich aber auch ein paar Einschränkungen in Kauf nehmen. Es bleibt natürlich die Frage ob man sich dagegen wehren möchte bzw. ob es überhaupt nötig ist, sich dagegen zu wehren. Auf einem Rechner welcher rein für Spiele genutzt wird kann man wohl auf eine Vollverschlüsselung verzichten, wer auf einem Laptop private Daten gespeichert hat und damit auch gerne einmal unterwegs ist sollte aber alle Maßnahmen in Betracht ziehen, den Zugiff zu erschweren. Viel zu schnell kann ein Laptop abhanden kommen und was mit den darauf gespeicherten Daten geschieht merkt man erst, wenn es zu spät ist. Wer im Vorraus die Datenträger verschlüsselt hat, muss zumindest nur mit dem materiellem Schaden zurechtkommen. Bei Smartphones und auch Tablets ist ein Zugriff auf das Gerät besonders heikel, sind darauf doch gerne einmal alle Kontakte, private Fotos, tausende von Nachrichten und noch anderen Dingen gespeichert, wovon die Welt möglichst wenig erfahren sollte.

Leute wie ich treffen ja des Öftern auf andere Leute, welche gelegentlich die Sicherheit ihrer Geräte fundamental überschätzen. Dabei ist das grundsätzliche Auslesen von Daten, wenn man ein Gerät direkt vor sich hat, in den meisten Fällen sehr einfach. Trotzdem trifft man immer wieder auf Aussagen wie diese:

Aber ich hab doch ein Passwort!!1!
Aus diesem Grunde im Folgenden ein paar Möglichkeiten (inklusive gewisser Gegenmaßnahmen) um Daten jeglicher Art auszulesen. Dabei muss man auf keine „Hacker-Tools“ zurückgreifen, Bordmittel oder alternative Betriebssysteme reichen hierfür vollkommen aus. Zumal der Begriff „Hacker-Tool“ für gewöhnlich sowieso nur in Medien Verwendung findet, um Werkzeugen die für einen spezifischen Zweck geschaffen wurden negative Eigenschaften anzudichten.

Datenzugriff, Möglichkeit I

Eine Möglichkeit besteht darin ein Live-System von USB-Stick zu booten. Anschließend kann man die einzelnen Partitionen einhängen und hat so vollen Zugriff auf das System. Möglich ist dies zum Beispiel mit Distributionen wie Ubuntu (und dessen Derivate, etwa Xubuntu welches etwas ressourcenschonender ist).

Gegenmaßnahme

  • Das Booten von externen Datenträgern unterbinden indem man die Bootreihenfolge anpasst (entsprechende Einstellungen finden sich im BIOS bzw. UEFI)
  • Und ein BIOS bzw. UEFI-Kennwort setzen, damit diese Einstellungen nicht einfach geändert werden können

Datenzugriff, Möglichkeit II

Angenommen ein BIOS bzw. UEFI-Kennwort ist gesetzt und man kann das Gerät zerlegen, gibt es eine weitere, einfache Möglichkeit: Festplatte ausbauen und an den eigenen Rechner hängen. Das ist nicht besonders raffiniert, funktioniert aber.

Gegenmaßnahme

  • Festplattenverschlüsselung nutzen, entweder nur für private Daten oder mittels Vollverschlüsselung des gesamten Systems
  • Manche Rechner bieten zudem ein Intrusion Detection System an. Damit kann man das Auslesen der Daten zwar nicht verhindern, allerdings kann man so erkennen, dass der eigene Rechner auseinandergeschraubt wurde

GNU/Linux, Möglichkeit I

Ausgehend davon, dass keine Verschlüsselung genutzt wird (zumindest nicht für die root-Partition), das BIOS/UEFI das Booten von einem externen Datenträger untersagt und man auch keine Möglichkeit hat die Festplatte auszubauen, so kann man immer noch über den Bootloader Zugriff auf das System erhalten. Dazu muss man wissen, dass ein GNU/Linux-System nach dem Starten des Kernels einen Prozess spawnt, welcher die PID 0 trägt und für den kompletten Start sowie die Verwaltung des Systems zuständig ist. Früher nutzte man dazu SysVinit, in Ubuntu dann lange Zeit Upstart und in Zukunft wird wohl die Mehrheit auf systemd setzen. Es gibt natürlich noch weitere Init-Systeme, aber darum geht es hier auch nicht. Man kann nämlich, anstelle des Init-Systems, eine Shell starten. Dazu hängt man im Bootloader (das häufig verwendete GRUB2 ist mittels drücken der Shift-Taste zu erreichen) an die Kernel-Befehlszeile (eigentlich „Kernel command-line“ genannt) einen Parameter an, welcher den ersten zu startenden Prozess angibt (hier beispielhaft für ein Ubuntu-System):
linux /boot/vmlinuz-3.13.0-33-generic root=/dev/sda1 ro quiet splash init=/bin/bash
Das Anhängsel init=/bin/bash sorgt nun dafür, dass man anstelle des Init-Systems eine BASH-Shell zu sehen bekommt. Wird das Dateisystem nur lesend eingehängt, so muss dieses nach dem Start (sofern man am System etwas ändern möchte) für Schreibzugriffe im read/write-Modus neu eingehängt werden (remount):
# mount -o remount,rw /
Anschließend kann man noch das Passwort für root ändern:
# passwd root
Enter new UNIX password: 
Retype new UNIX password: 
passwd: Password updates successfully
#
Alternativ könnte man auch einen neuen Benutzer hinzufügen, mit dem man fortan Zugriff auf das System hat. Nachdem man die Änderungen vollzogen hat kann man wieder das ursprüngliche Init-System seinen Dienst verrichten lassen:
# /sbin/init
Aus unerklärlichen Gründen geht das natürlich bei einem aktuellen Ubuntu nicht. Und auch ein Herunterfahren oder Neustarten jeglicher Art wird verweht. Bleibt also nur noch die Änderungen manuell auf die Platten schreiben zu lassen:
# sync
Und anschließend den Rechner, obwohl für die Hardware nicht zu empfehlen, gewaltsam auszuschalten (indem man ihn beispielsweise von der Stromversorgung trennt). Danach startet man diesen neu und kann sich als root-User am System anmelden.

GNU/Linux, Möglichkeit II

Anstatt alles per Hand zu machen kann man auch eine praktische Funktion nutzen, die manche GNU/Linux-Distributionen von Haus aus sowieso mitbringen: Den Recovery-Modus. Dazu muss man, wie bereits weiter oben schon einmal erwähnt, in den Bootloader gelangen (etwa durch gedrückthalten der Shift-Taste) und kann nun das Recovery-System booten. Das funktioniert natürlich nur, wenn man keine Festplattenverschlüsselung nutzt. Vorteil ist, dass ein gesperrtes BIOS bzw. UEFI kein Hindernis darstellt. Im Recovery-Modus hat man in der Regel root-Rechte und somit vollen Zugriff auf das System.

Gegenmaßnahme

  • Bootloader sperren, wie man hierbei genau vorgehen muss steht in der jeweiligen Dokumentation

Android

In Android gibt es ein Stück Software welches sich Android Debug Bridge (kurz ADB) nennt und den Zugriff über ein angeschlossenes USB-Kabel als mittlerweile auch über WLAN/LAN erlaubt. Normalerweise läuft adb nicht im Hintergrund, es gibt aber erstaunlich viele Geräte welche adb trotzdem aktiviert haben. Um auf ein Gerät zugreifen zu können braucht man eine lauffähige Instanz der ADB-Software auf dem Rechner und ein USB-Verbindungskabel, anschließend kann man sein Glück versuchen, wenn auch dies meistens am Gerät bestätigt werden muss:
$ adb shell
shell@device:/ $ exit
$
Bei gerooteten Geräten kann man zusätzlich mit dem Befehl su root-Rechte erlangen, sofern dies freigeschaltet ist. Damit hat man vollen Zugriff auf das System.

Gegenmaßnahme

  • Unter Einstellungen → Entwickleroptionen → Android-Debugging den Haken herausnehmen

Fazit

Es ist wie bereits erwähnt oftmals erstaunlich einfach auf ein Gerät Zugriff zu erhalten. Natürlich kann man sich dagegen wehren, muss dafür gelegentlich aber auch ein paar Einschränkungen in Kauf nehmen. Es bleibt natürlich die Frage ob man sich dagegen wehren möchte bzw. ob es überhaupt nötig ist, sich dagegen zu wehren. Auf einem Rechner welcher rein für Spiele genutzt wird kann man wohl auf eine Vollverschlüsselung verzichten, wer auf einem Laptop private Daten gespeichert hat und damit auch gerne einmal unterwegs ist sollte aber alle Maßnahmen in Betracht ziehen, den Zugiff zu erschweren. Viel zu schnell kann ein Laptop abhanden kommen und was mit den darauf gespeicherten Daten geschieht merkt man erst, wenn es zu spät ist. Wer im Vorraus die Datenträger verschlüsselt hat, muss zumindest nur mit dem materiellem Schaden zurechtkommen. Bei Smartphones und auch Tablets ist ein Zugriff auf das Gerät besonders heikel, sind darauf doch gerne einmal alle Kontakte, private Fotos, tausende von Nachrichten und noch anderen Dingen gespeichert, wovon die Welt möglichst wenig erfahren sollte.

31. August 2014

Mit dem Storage Inspector bekommt Firefox ein neues Entwickler-Werkzeug, welches das Betrachten und Bearbeiten von Cookies und Inhalten aus IndexedDB, Local Storage sowie Session Storage erlaubt.

Das Betrachten von Cookies einer Webseite erlaubt Firefox bereits seit längerem über das Netzwerk-Panel der Entwickler-Werkzeuge. Mit Firefox 34 kommt ein neues Entwickler-Werkzeug dazu, welches nicht nur die Inhalte von Cookies, sondern auch von IndexedDB, Local Storage sowie Session Storage darstellt. Das neue Tool ist bereits Bestandteil der aktuellen Nightly-Version von Firefox 34 und kann über das Einstellungs-Panel der Entwickler-Werkzeuge aktiviert werden. Das Anlegen, Bearbeiten und Löschen ist in der aktuellen Nightly-Version noch nicht möglich, aber in Arbeit. In speziellen Test-Builds funktioniert das Bearbeiten auch schon zu großen Teilen, so dass es eher noch eine Frage von Tagen als von Wochen ist, bis dieser Part des Features in Firefox landet und das neue Werkzeug erst wirklich praktisch macht. Ob die Möglichkeit des Bearbeitens auch Bestandteil von Firefox 34 sein wird, ist allerdings noch unklar in Anbetracht der Tatsache, dass bereits am Dienstag der Startschuss für die Firefox 35-Entwicklung fällt.

Mit dem Storage Inspector bekommt Firefox ein neues Entwickler-Werkzeug, welches das Betrachten und Bearbeiten von Cookies und Inhalten aus IndexedDB, Local Storage sowie Session Storage erlaubt.

Das Betrachten von Cookies einer Webseite erlaubt Firefox bereits seit längerem über das Netzwerk-Panel der Entwickler-Werkzeuge. Mit Firefox 34 kommt ein neues Entwickler-Werkzeug dazu, welches nicht nur die Inhalte von Cookies, sondern auch von IndexedDB, Local Storage sowie Session Storage darstellt. Das neue Tool ist bereits Bestandteil der aktuellen Nightly-Version von Firefox 34 und kann über das Einstellungs-Panel der Entwickler-Werkzeuge aktiviert werden. Das Anlegen, Bearbeiten und Löschen ist in der aktuellen Nightly-Version noch nicht möglich, aber in Arbeit. In speziellen Test-Builds funktioniert das Bearbeiten auch schon zu großen Teilen, so dass es eher noch eine Frage von Tagen als von Wochen ist, bis dieser Part des Features in Firefox landet und das neue Werkzeug erst wirklich praktisch macht. Ob die Möglichkeit des Bearbeitens auch Bestandteil von Firefox 34 sein wird, ist allerdings noch unklar in Anbetracht der Tatsache, dass bereits am Dienstag der Startschuss für die Firefox 35-Entwicklung fällt.

Ich arbeite derzeit mal wieder an einem Spiel welches ich in Python programmiere.
Es soll ein Aufbauspiel wie Anno oder Sim City werden und ist bereits spielbar, auch wenn ich noch nicht alle Features eingebaut habe die ich mir für die erste Veröffentlichung Ausgedacht habe.

Ich nutze dafür die Bibliothek Pygame für die ich mir auch einen kleinen Wrapper geschrieben habe.
Den Wrapper nutze ich unter anderem für die GUI Elemente wie Buttons.

Wie man auf dem Bildschirmfoto bereits erkennen kann spielt dass Spiel in der Vergangenheit wobei ich später noch mehrere Epochen einbauen möchte.
Ähnlich wie die Siedler ist dass Spiel jedoch runden basiert sodass man zwar in einer Runde unendlich viel Bauen kann aber beispielsweise die Gebäude nur pro runde die Materialien produzieren.

Um die Geschichte zu erzählen habe ich mir ein Quest System ausgedacht wobei es bei jeder Quest auch unterschiedliche Belohnungen gibt.
Die Belohnungen passen dabei immer zu der Aufgabe und werden in dem jeweiligem Quest Text genauer erklärt.

Die Grafiken und der Code stammen dabei von mir jedoch plane ich es später einmal unter einer Open Source Lizenz zu veröffentlichen.

Hier ein erster Eindruck:

Quelle - Marc Volker Dickmann
Quelle – Marc Volker Dickmann

Heute mal wieder ein Beitrag aus einem aktuellen Anlass. Zunächst begann es mit etwas Erfreulichem, dass jemand über die Linux-Auswahlhilfe berichtet hat wodurch diese 700 mal in wenigen Stunden benutzt wurde.

Unter dem Beitrag, bei dem über den Dienst berichtet wurde begann schon wieder das  “Hating”. Natürlich weiß ich selbst, dass die Linux-Auswahlhilfe weder fertig noch perfekt ist, aber so etwas als unnötig bzw. mehr oder weniger als Müll zu bezeichnen finde ich mehr als unfair. Das bin ich bei der Linux-Auswahlhilfe gewohnt. Es gab schon öfters kontroverse Diskussionen darüber, ob es jetzt Sinn macht oder nicht.

Die ursprüngliche Motivation für die Linux-Auswahlhilfe war eigentlich, Anfängern eine Orientierungshilfe zu bieten. Diese Idee kommt wohl nicht bei jedem an.

Mal wieder schön zu sehen, wie wenig manche Menschen die Arbeit von Entwicklern honorieren. Etwas mit negativem Gelapper schlecht zu reden geht leicht, etwas selbst zu schrieben hingegen nicht. Ich schreibe Software, die frei von jeden Restriktionen ist. Und da erwarte ich als Gegenleistung nicht, dass ein Kniefall notwendig wird, aber lediglich eine gewisse Anerkennung bzw. produktive (!) Kritik sind durchaus angebracht.

Was mich sehr betroffen gemacht hat, war die Behauptung ich hätte einfach kopiert. Ja, es gibt bereits einen ähnlichen Dienst. Dieser wurde offensichtlich seit 2011 nicht mehr gepflegt. Daher fand ich eine etwas modernere, auf Mobilgeräten anzeigbarer Dienst wäre angebracht gewesen. Daher finde ich, dass dieses Argument ziemlicher Humbug ist.

Alles neben produktiver Kritik ist einfach nur unangebracht und nimmt einem als Entwickler wirklich den Wind aus den Segeln, um weiter zu machen. Ich bin da ziemlich empfindlich, dass muss ich zugeben. Daher fehlt mir heute wirklich die Motivation, an irgendetwas zu entwickeln.

Eigentlich wollte ich heute die bisher gesammelten Verbesserungsvorschläge umsetzen. Daran ist mir heute ziemlich die Lust vergangen.

http://knowyourmeme.com/photos/248079-feels-bad-man-sad-frog

http://knowyourmeme.com/photos/248079-feels-bad-man-sad-frog

Mich würde es einmal interessieren, was ihr zu so etwas sagt. Stimmt ihr mir zu?

PS: Ich poste keinen Quelllink, denn ich will keinen Shitstorm starten.

Der Wochenrückblick lässt das Geschehen der vergangenen Woche rund um Ubuntu, Linux und Open Source Revue passieren.

Rund um Ubuntu

Canonical als WEF Tech Pioneer 2015 ausgezeichnet

Canonical, die Firma hinter Ubuntu, wurde vom World Economic Forum als „Tech Pioneer 2015“ im Bereich „Digital Networks & Computing“ ausgezeichnet. Ein anderer, ausgezeichneter Bekannter in der gleichen Sparte ist die Raspberry Pi Foundation.

Quelle: Ubuntu Insights

Erste Beta-Versionen der Ubuntu-Familie für 14.10

Das Utopic Unicorn erscheint im Oktober 2014, letzte Woche wurden die ersten Beta-Versionen der verschiedenen Ubuntu-Derivate veröffentlicht, darunter Xubuntu, Kubuntu, Ubuntu GNOME, Lubuntu, Ubuntu Kylin und Ubuntu Cloud Images. Von Ubuntu selbst gibt es keine Beta-Versionen, da es tägliche „Daily Builds“ zum Download gibt. Achtung: Beta-Versionen sind nicht zum produktiven Einsatz gedacht!

Quellen: OMG!Ubuntu!, Pro-Linux, heise open

Ubuntu GNOME Wallpaper-Contest

Noch bis zum 5. September 2014 kann man für die Hintergrundbilder von Ubuntu GNOME 14.10 abstimmen. Der Wettbewerb wird über Picompete durchgeführt. Nach der Wahl werden die 10 besten Hintergrundbilder ausgewählt und mit der Distribution ausgeliefert.

Quelle: Ubuntu GNOME Blog

Full Circle Magazine 88

Diese Woche ist die neue Ausgabe des englischsprachigen Magazins Full Circle Magazine erschienen. Themen der 88. Ausgabe sind unter anderem Tutorials zu Blender, Inkscape und LibreOffice, ein kurzer Blick auf Arduino, Einrichtung eines minimalen Ubuntu-Desktops und Kompilierung des Linux-Kernels.

Quelle: Full Circle Magazine Blog

Neues rund um Linux

Leadwerks Game Engine für Linux

Eine weitere Engine steht für die Spieleprogrammierung unter Linux zur Verfügung: die durch eine Kickstarter finanzierte Portierung der Leadwerks Game Engine. Diese kann man ab sofort bei Steam für ca. 93 Euro als Einzellizenz kaufen. Die LGE unterstützt OpenGL 4.0 und verschiedene Skriptsprachen, vor allem Lua. Unter Linux gibt es auch eine Blender-Integration.

Quellen: Pro-Linux, Golem, heise open

Spielen unter Linux

The Journey Down, Teil 2 veröffentlicht

Vom erfolgreichen Indie-Spiel The Journey Down ist der zweite Teil erschienen. Mit karibisch-afrikanischem Flair und Jazz-Klängen stach der erste Teil des Point-and-Click-Adventures aus der Menge der Abenteuerspiele heraus. Und auch im zweiten Teil darf wieder fröhlich gepuzzelt werden.

Quelle: heise open

Hardware und Mobiles

Huawei sieht keine Chance für Tizen

Der Mobilmarkt wird derzeit von Google Android und Apple iOS dominiert. Es gibt zahlreiche weitere Versuche, andere Mobilsystem zu etablieren. Darunter Ubuntu Phone, Firefox OS, Sailfish OS oder Tizen. Für letzteres sieht Gerätehersteller Huawei keine Chancen im Markt. Ob sich die anderen Systeme gegen die zwei Platzhirsche durchsetzen können, bleibt abzuwarten.

Quellen: Pro-Linux, heise open

FSFE: Free Your Android

Die Free Software Foundation Europe (FSFE) hat die Kampagne Befreie Dein Android ins Leben gerufen. Grund ist, dass die meisten Treiber für Mobilgeräte und Programme im Android Market nicht frei sind. Dabei geht es aber auch um das Thema Privatsphäre, die mit vielen Apps nicht gewahrt ist.

Quelle: heise open

Heute geht es nicht um Ubuntu / Linux Basteleien, sondern um komfortables Lesen und Arbeiten mit dem Rechner. Schon seit längerem bietet der Markt eigentlich nur noch LC-Displays im Format 16:9 an. Dieses Format eignet sich hervorragend zum Anschauen von Spielfilmen, dem Spielen von Computerspielen und – was eigentlich? Das Layout der meisten Texte in meinem Kulturkreis ist auf Seitenverhältnis von 1:1,41 Hochkant ausgelegt.
Das harmonisiert nicht wirklich mit den Verhältnis 1:1,78 der meisten Computerbildschirme. Den größten Teil des Tages verbringe ich mit dem Lesen und Schreiben von Texten und nicht mit Spielen oder Filme schauen – 16:9 geht also klar an meinen Bedürfnissen vorbei.
Da heute Sonntag ist habe ich ein wenig an meinen Monitoreinstellungen herumgebastelt und gearbeitet.
Bisher habe ich 3 Displays (1* 15,6″, 1* 23″, 1*24″) mit einer jeweiligen Auflösung 1920 * 1080 Pixel genutzt. Nun habe ich ein Display im Uhrzeigersinn nach rechts gedreht und Screenshots gemacht. Im unteren Display sind die Bildschirmeinstellungen.

Im ersten Screenshot ist eine normale Newsseite im Netz zu sehen. Bemerkenswert ist der graue Rand, dieser ist sichtbar, da ich zu Testzwecken die Werbung auf der Seite ausgeblendet habe. Auffällig ist das schlechte Verhältnis von grauer Fläche zu Inhalt. Im Hochformat sieht die Sache schon ganz anders aus – weniger Grau und viel mehr Text. Informationen gehen nicht verloren. Das Rumklicken und Lesen auf der Seite macht deutlich mehr Spaß auch wenn die Darstellung ein wenig ungewohnt ist.

Internetseite einmal im Hoch- und einmal im Querformat

Viel interessanter ist der zweite Screenshot. Damit verbringe ich den größten Teil meiner Arbeitstage, dem Erstellen von unformatiertem Text. Rechts und Links ist der gleiche Code dargestellt. Der graue Balken zeigt den rechten Rand nach 120 Zeichen an. Diese Größe ist für mich sehr wichtig, da ich sehr selten und auch ungern Zeilen schreibe die länger sind.

2 mal der gleiche C Code, einmal im Hoch und einmal im Querformat.
2 mal der gleiche C Code, einmal im Hoch und einmal im Querformat.

Hier überzeugt das Hochformat! Man erkennt mehr Zeilen und muß nich so sehr am Mausrad drehen. Zum rechten Rand ist noch ein wenig Platz für Ausnahmen von der Regel und statt magerer 54 Zeilen sieht man 104 Zeilen!

Reiner Text ist meiner Meinung nach auch angenehmer zu lesen.

Faust im Browser
Faust im Browser

Zum Schluss bleibt die Frage, wie Ihr Eure Displays eingestellt habt. Arbeitet Ihr nur im Hoch oder Querformat oder nutzt Ihr beides?

Der Beitrag Ergonomisches arbeiten mit 16:9 Displays erschien zuerst auf Unerklärliches am Rande.

Heute geht es nicht um Ubuntu / Linux Basteleien, sondern um komfortables Lesen und Arbeiten mit dem Rechner. Schon seit längerem bietet der Markt eigentlich nur noch LC-Displays im Format 16:9 an. Dieses Format eignet sich hervorragend zum Anschauen von Spielfilmen, dem Spielen von Computerspielen und – was eigentlich? Das Layout der meisten Texte in meinem Kulturkreis ist auf Seitenverhältnis von 1:1,41 Hochkant ausgelegt.
Das harmonisiert nicht wirklich mit den Verhältnis 1:1,78 der meisten Computerbildschirme. Den größten Teil des Tages verbringe ich mit dem Lesen und Schreiben von Texten und nicht mit Spielen oder Filme schauen – 16:9 geht also klar an meinen Bedürfnissen vorbei.
Da heute Sonntag ist habe ich ein wenig an meinen Monitoreinstellungen herumgebastelt und gearbeitet.
Bisher habe ich 3 Displays (1* 15,6″, 1* 23″, 1*24″) mit einer jeweiligen Auflösung 1920 * 1080 Pixel genutzt. Nun habe ich ein Display im Uhrzeigersinn nach rechts gedreht und Screenshots gemacht. Im unteren Display sind die Bildschirmeinstellungen.

Im ersten Screenshot ist eine normale Newsseite im Netz zu sehen. Bemerkenswert ist der graue Rand, dieser ist sichtbar, da ich zu Testzwecken die Werbung auf der Seite ausgeblendet habe. Auffällig ist das schlechte Verhältnis von grauer Fläche zu Inhalt. Im Hochformat sieht die Sache schon ganz anders aus – weniger Grau und viel mehr Text. Informationen gehen nicht verloren. Das Rumklicken und Lesen auf der Seite macht deutlich mehr Spaß auch wenn die Darstellung ein wenig ungewohnt ist.

Internetseite einmal im Hoch- und einmal im Querformat

Viel interessanter ist der zweite Screenshot. Damit verbringe ich den größten Teil meiner Arbeitstage, dem Erstellen von unformatiertem Text. Rechts und Links ist der gleiche Code dargestellt. Der graue Balken zeigt den rechten Rand nach 120 Zeichen an. Diese Größe ist für mich sehr wichtig, da ich sehr selten und auch ungern Zeilen schreibe die länger sind.

2 mal der gleiche C Code, einmal im Hoch und einmal im Querformat.
2 mal der gleiche C Code, einmal im Hoch und einmal im Querformat.

Hier überzeugt das Hochformat! Man erkennt mehr Zeilen und muß nich so sehr am Mausrad drehen. Zum rechten Rand ist noch ein wenig Platz für Ausnahmen von der Regel und statt magerer 54 Zeilen sieht man 104 Zeilen!

Reiner Text ist meiner Meinung nach auch angenehmer zu lesen.

Faust im Browser
Faust im Browser

Zum Schluss bleibt die Frage, wie Ihr Eure Displays eingestellt habt. Arbeitet Ihr nur im Hoch oder Querformat oder nutzt Ihr beides?

Der Beitrag Ergonomisches arbeiten mit 16:9 Displays erschien zuerst auf Unerklärliches am Rande.

30. August 2014

Mozilla wird in der kommenden Woche Firefox 32 veröffentlichen. Mit der neuen Version unterstützt Firefox das sogenannte Public Key Pinning, was das Browsing sicherer machen soll.

Beim Public Key Pinning geht es darum, beim Besuch einer verschlüsselten Webseite zu überprüfen, ob das verwendete Zertifikat von einem vertrauenswürdigen Herausgeber stammt. Genauer gesagt erlaubt das Public Key Pinning die Definition, welche Zertifizierungsstelle gültige Zertifikate für eine bestimmte Webseite ausstellt, statt jedes beliebige Zertifikat zu akzeptieren, welches mit dem Browser ausgeliefert wird. Dies soll das Risiko von Man-in-the-middle-Attacken durch fälschlich ausgestellte Zertifikate reduzieren, wie es sie in der Vergangenheit schon öfter gab.

Firefox 32 unterstützt Pins, welche fix im Browser hinterlegt sind. Dies sind ab Firefox 32 Mozillas Add-on-Seite AMO und Mozillas CDN sowie einige Twitter-Domains. Mit Firefox 33 kommen die restlichen Twitter-Domains sowie die Domains von Google dazu. Ab Firefox 34 sind Pins für Firefox Accounts, Dropbox, Facebook und TOR integriert. In Zukunft möchte man auch die entsprechende HTTP-Erweiterung unterstützen, welche Webseitenbetreibern das Festlegen mittels HTTP-Header erlaubt.

Mozilla wird in der kommenden Woche Firefox 32 veröffentlichen. Mit der neuen Version unterstützt Firefox das sogenannte Public Key Pinning, was das Browsing sicherer machen soll.

Beim Public Key Pinning geht es darum, beim Besuch einer verschlüsselten Webseite zu überprüfen, ob das verwendete Zertifikat von einem vertrauenswürdigen Herausgeber stammt. Genauer gesagt erlaubt das Public Key Pinning die Definition, welche Zertifizierungsstelle gültige Zertifikate für eine bestimmte Webseite ausstellt, statt jedes beliebige Zertifikat zu akzeptieren, welches mit dem Browser ausgeliefert wird. Dies soll das Risiko von Man-in-the-middle-Attacken durch fälschlich ausgestellte Zertifikate reduzieren, wie es sie in der Vergangenheit schon öfter gab.

Firefox 32 unterstützt Pins, welche fix im Browser hinterlegt sind. Dies sind ab Firefox 32 Mozillas Add-on-Seite AMO und Mozillas CDN sowie einige Twitter-Domains. Mit Firefox 33 kommen die restlichen Twitter-Domains sowie die Domains von Google dazu. Ab Firefox 34 sind Pins für Firefox Accounts, Dropbox, Facebook und TOR integriert. In Zukunft möchte man auch die entsprechende HTTP-Erweiterung unterstützen, welche Webseitenbetreibern das Festlegen mittels HTTP-Header erlaubt.

In der Vergangenheit habe ich immer mal wieder mit youtube-dl experimentiert. Was mir bisher immer noch fehlte war eine Möglichkeit das Abspielen der Videos im externen Player zu vereinfachen. Es ist schon sehr mühselig die Videolinks zu kopieren und in einem Eingabedialog wieder einzufügen. Mit nur wenigen Zeilen Bash Code ist es möglich diesen Prozess einfacher zu halten.

Der Link zum Video wird wie gehabt mit der rechten Maustaste kopiert und das Video über eine Tastenkombination gestartet. Ermöglicht wird das durch das kleine Programm xsel über das man die Zwischenablage in einem Script auslesen kann. In Kombination mit youtube-dl und einem kleinen Bash Script lassen sich Videos über eine Tastenkombination direkt im externen Player starten. In meinem Fall habe ich dafür die Kombination [STRG+F12] gewählt. Eine Tastenkombination lässt sich in den Systemeinstellungen sehr einfach festlegen.

 

Das nachfolgende Script muss dann nur noch als solches gespeichert und ausführbar gemacht werden. Am besten man wählt einen Speicherort der im Pfad eingetragen ist, z.B. /usr/local/bin das hat den Vorteil das man nicht den kompletten Pfad angeben muss um das Script aufzurufen. Die Tastenkombination muss nun auf das Script verweisen.

Wenn youtube-dl VLC und xsel installiert ist kann man jetzt Youtube Videolinks die mit der rechten Maustaste kopiert wurden über die Tastenkombination im VLC Player öffnen lassen. Wer einen anderen Player nutzen möchte muss das Script entsprechend abwandeln.

Das Script:

[codesyntax lang=”bash”]

#!/bin/bash

ADRESSE=$(xsel -b)
STREAM=$(youtube-dl -g $ADRESSE)
vlc $STREAM
exit 0

[/codesyntax]

The post Youtube Videos mit Tastenkombination im VLC Player starten appeared first on Radiolauscher.de.

29. August 2014

openSUSE zählt seit jeher zu den wenigen Distributionen, die dem Thema Running Release eine große Bedeutung zumessen. Vor einem Monat hat sich allerdings der Ansatz grundsätzlich geändert: Während man bisher openSUSE-Fans über das Thumbleweed-Projekt die Möglichkeit gab, eine gewöhnliche openSUSE-Installation in ein Running Release umzuwandeln, gilt seit Ende Juli 2014 der Entwicklungszeig von openSUSE, die sogenannte Factory, als Rolling Release.

Installation

Es gibt für die Factory kein eigenes Installationsmedium. Stattdessen müssen Sie zuerst eine aktuelle openSUSE-Distribution installieren. Nach einem Update löschen Sie die ursprünglichen Paketquellen und richten stattdessen die Factory-Paketquellen für oss, non-oss und debug ein. zypper dup stellt dann die normale openSUSE auf den Entwicklungszweig = Rolling Release Factory um. Es wird empfohlen, zypper dup in einer Textkonsole auszuführen.

mkdir /etc/zypp/repos.d/old
mv /etc/zypp/repos.d/*.repo /etc/zypp/repos.d/old
zypper ar -f -c http://download.opensuse.org/factory/repo/oss repo-oss
zypper ar -f -c http://download.opensuse.org/factory/repo/non-oss repo-non-oss
zypper ar -f -c http://download.opensuse.org/factory/repo/debug repo-debug
zypper lr -u
   # | Alias        | Name         | Enabled | Refresh | URI                                              
   --+--------------+--------------+---------+---------+------------
   1 | repo-debug   | repo-debug   | Yes     | Yes     | http://...
   2 | repo-non-oss | repo-non-oss | Yes     | Yes     | http://...
   3 | repo-oss     | repo-oss     | Yes     | Yes     | http://...
zypper dup
  1412 packages to upgrade, 112 to downgrade, 238 new, 
  39 to remove, 30  to change vendor, 3 to change arch.
  Overall download size: 1.33 GiB. After the operation, 
  additional 831.2 MiB will be used.
  ...

Die Umstellung auf Factory hat bei meinem Test in einer VirtualBox-Maschine deutlich länger als eine Stunde gedauert, sie ging aber sonst vollkommen problemlos vor sich. Je nachdem, wie schnell Ihre Internet-Verbindung und Ihr Rechner ist und wie viele Pakete Sie installiert haben, kann die Umstelldauer natürlich stark variieren.

Update 8.9.2014 (danke an AlexMR!): Aktuelle Factory-ISOs gibt es hier: http://download.opensuse.org/factory/iso/

Erste Erfahrungen

Erste Tests zeigten keine Auffälligkeiten: KDE wurde auf Version 4.14 aktualisiert, der Kernel auf Version 3.16, LibreOffice auf Version 3.16 etc. Eine Liste der gerade aktuellen Versionsnummern in der Factory können Sie am unkompliziertesten auf distrowatch.com nachlesen (gleich in der ersten Spalte Factory).

/etc/SUSE-brand bezeichnet die Factory-Distribution ganz locker als openSUSE 13.2. /etc/os-release gibt etwas differenziertere Informationen:

Release-Informationen
Release-Informationen

Wie stabil Factory als Running Release langfristig läuft, kann ich momentan nicht abschätzen. Für meine produktiven Rechner ist mir die Sache zu brenzlig, aber ich habe mir vorgenommen, in Zukunft hin und wieder in meine virtuelle Factory-Maschine hineinzusehen und an dieser Stelle von meinen Erfahrungen zu berichten.

Tumbleweed ade?

Die Zukunft des ehemaligen Tumbleweed-Projekts ist ungewiss. Greg Kroah-Hartman versichert zwar, Tumbleweed vorerst weiterhin zu warten, er verwendet Tumbleweed selbst aber nicht mehr und hofft, dass das Factory-Angebot die bessere Lösung darstellt. Insofern darf man berechtigte Zweifel daran haben, dass Tumbleweed noch eine große Zukunft vor sich hat.

Update 26.10.2014

Vorgestern hat openSUSE verkündet, dass Tumbleweed und Factory im November vereint werden sollen. Das Rolling Release bekommt dann den Namen »Tumbleweed«. Die »Factory« soll weiterhin der Entwicklerzweig bleiben. Technische Details sollen in den nächsten Tagen folgen, vorauss. nach der Freigabe von openSUSE 13.2.

Links

https://news.opensuse.org/2014/07/29/factory-rolling-release/
http://en.opensuse.org/openSUSE:Factory_installation
http://de.opensuse.org/Portal:Factory
http://de.opensuse.org/Portal:Tumbleweed
http://lists.opensuse.org/opensuse-factory/2014-07/msg00098.html
openSUSE inkl. Factory bei distrowatch.com

Seit Anfang Juli ist CentOS 7 verfügbar. Der neuen Kooperation zwischen Red Hat und CentOS ist es zu verdanken, dass die Freigabe von CentOS 7 nicht einmal ein Monat nach der Fertigstellung von RHEL 7 gelang.

CentOS 7 im Classical Mode von Gnome 3.8

Für nicht-kommerzielle Linux-Server-Anwender zählt CentOS neben Debian und Ubuntu zu den attraktivsten Angeboten. Wer nicht ständig die neuesten Gnome-, Gimp- und LibreOffice-Versionen braucht, kann sogar den Desktop-Einsatz in Erwägung ziehen. Aus meiner Sicht ist CentOS 7 neben Ubuntu 14.04 die interessanteste Linux-Distribution des Jahres 2014.

Eckdaten

  • Versionen: CentOS unterscheidet im Gegensatz zu Red Hat nicht zwischen Desktop-, Workstation- und Server-Varianten. Stattdessen gibt es nur ein CentOS.
  • Versionsnummern: Die CentOS-Versionsnummer wird regelmäßig aktualisiert, und zwar in der Form 7-YYMM. Dabei gibt YY das Jahr und MM das Monat an. Als ich diesen Text verfasst habe, war CentOS 7-1408 aktuell.

  • Architekturen: Momentan steht CentOS 7 nur für die x86_64-Architektur zur Verfügung. Varianten für x86-32, Power und 32-Bit-ARM soll es später geben.

  • SIGs: SIGs sind Special Interrest Groups. In Zukunft soll es speziell angepasste Distributions-Varianten dieser Gruppen geben, z.B. für den Cloud-Einsatz von CentOS.

  • ISO-Images: Zu CentOS gibt es diverse ISOs zum Download. Empfohlen wird das rund 4 GByte große DVD-Image. Alternativ gibt es ein fast 7 GByte großes Everything-ISO-Image, ein 570 MByte großes Minimal-ISO sowie ein 360 MByte großes NetInstall-Image (erfordert Netzwerkzugang während der Installation). Zum Ausprobieren sowie für Reparaturarbeiten können Sie zwischen KDE- und Gnome-Live-Images wählen (1,2 bzw. 1 GByte).

  • Updates: CentOS verspricht Updates für CentOS 7 bis Ende 2020 sowie sogenannte Maintenance-Updates bis Juni 2024, somit für insgesamt 10 Jahre. Sicherheits-Updates soll es spätestens innerhalb von 48 Stunden nach der Veröffentlichung durch Red Hat geben.

CentOS 7 im Classical Mode von Gnome 3.8
CentOS 7 im Classical Mode von Gnome 3.8

Wichtige Neuerungen, Software-Versionsnummern

CentOS übernimmt naturgemäß alle wichtigen Neuerungen von RHEL 7 (siehe auch
meinen Blogbeitrag zu RHEL-7-Beta):

  • Installation: Bei der Installation müssen Sie sich mit den Tücken und der unlogischen und nicht intuitiven Bedienung eines neuen Installationsprogramms abfinden. Wer regelmäßig Fedora installiert, kennt dieses Programm bereits und wird sich leichter zurechtfinden.
  • Standarddateisystem: Als Standarddateisystem kommt XFS zum Einsatz. Hauptgrund für diese Entscheidung war, dass XFS bei sehr großen Dateisystemen (mehr als 16 TByte) offensichtlich robuster läuft als ext4.

  • Init-System: Wie die meisten Linux-Distributionen ist nun auch CentOS auf Systemd umgestiegen.

  • Gnome 3 im Classic Modus: Der Standard-Desktop ist Gnome im Classic Modus, basierend auf Gnome 3.8. Die echte Gnome-Shell ist ebenfalls installiert und kann beim Login ausgewählt werden (über das Zahnrad-Menü links vom Button Anmelden).

  • MySQL ade: CentOS verwendet nun MariaDB als MySQL-kompatiblen Datenbank-Server.

  • Firewall: Das in Fedora seit einem Jahr bekannte FirewallD-System kommt nun auch unter CentOS zum Einsatz. Die Administration von Firewall-Regeln ändert sich damit grundlegend!

Abschließend eine Liste mit den wichtigsten Versionsnummern:

Basis             Desktop             Programmierung   Server
---------------   ------------------  ---------------  ---------------
Kernel    3.10    Gnome        3.8    bash     4.2     Apache    2.4
glibc     2.17    KDE          4.10   gcc      4.8     CUPS      1.6
GRUB      2.0     Firefox      24     Java     7       MariaDB   5.5
Systemd   208     Gimp         2.8    PHP      5.4     qemu/KVM  1.5 
X-Server  1.15    LibreOffice  4.1    Python   2.7     Postfix   2.10
                  Thunderbird  ---                     OpenSSH   6.6
                                                       Samba     4.1

Offizielle Thunderbird-Pakete gibt es nicht, diese sind in EPEL zu finden.

Installation

Beachten Sie bei der Installation, dass standardmäßig nur die Pakete für den Betrieb im Textmodus installiert werden. Wenn Sie CentOS mit einer grafischen Benutzeroberfläche verwenden möchten, müssen Sie die Software-Auswahl vor Beginn der Installation entsprechend korrigieren.

Bei Desktop-Installationen kümmert sich wie üblich der NetworkManager um den Netzwerkzugang. Unverständlicherweise wird bei einer Netzwerkanbindung per Ethernet-Kabel zu einem DHCP-Server die Ethernet-Schnittstelle nicht automatisch aktiviert — ein Problem, das ich in der Vergangenheit schon oft unter Fedora beobachtet habe. Abhilfe: Klicken Sie auf das NetworkManager-Icon im Panel, führen Sie Netzwerkeinstellungen aus, wählen Sie die Ethernet-Schnittstelle aus und aktivieren Sie im Dialogblatt Identität die Option automatisch verbinden.

Der NetworkManager soll die Ethernet-Schnittstelle automatisch aktivieren.
Der NetworkManager soll die Ethernet-Schnittstelle automatisch aktivieren.

EPEL

Im Vergleich zu Debian, Ubuntu oder Fedora ist die Paketauswahl in CentOS bzw. RHEL mager. Die beste Sammlung wichtiger Zusatzpakete bietet EPEL = Extra Packages for Enterprise Linux. Zum Einrichten der Paketquelle laden Sie einfach das Paket epel-release-7.n.noarch von der EPEL-Webseite herunter und installieren es. Wenn Sie keine grafische Benutzerfläche installiert haben, führen Sie dazu das folgende Kommando aus:

rpm -i http://fedora.aau.at/epel/7/x86_64/epel-release-7-0.2.noarch.rpm

GRUB-Wartezeit vermindern

Standardmäßig zeigt GRUB 5 Sekunden ein Menü an, bevor es CentOS startet. Im
Server-Einsatz ist das überflüssig. Abhilfe: Stellen Sie in /etc/default/grub
den Parameter GRUB_TIMEOUT=1 ein und führen Sie dann grub2-mkconfig -o
/boot/grub2/grub.cfg
aus.

Fail2ban statt denyhosts

Wie schon unter Ubuntu 14.04 ist auch in CentOS 7 das Paket denyhosts nicht mehr verfügbar. Alternative:

yum install fail2ban
systemctl enable fail2ban
systemctl start fail2ban

Standardmäßig sind in fail2ban alle Jails deaktiviert. Um SSHD abzusichern, kopieren Sie zuerst jail.conf nach jail.local und suchen dort nach dem Abschnitt [sshd]. In diesem Abschnitt fügen Sie die Zeile enabled=true ein. Wenn Sie andere Dienste absichern möchten, verfahren Sie analog.

cd /etc/fail2ban
cp fail.conf fail.local
emacs fail.local
systemctl restart fail2ban

Nach ein paar Minuten vergewissern Sie sich mit fail2ban-client status sshd, dass fail2ban wirklich funktioniert.

Automatische Updates

Wenn Sie möchten, dass yum einmal täglich ein automatisches Update durchführt, installieren Sie yum-cron. Damit tatsächlich Updates durchgeführt werden, tragen Sie in /etc/yum/yum-cron.conf die Einstellung apply_updates = yes ein. Um den Update-Aufruf kümmert sich die Cron-Datei /etc/cron.daily/0yum-daily.cron, die Sie nicht verändern müssen.

CentOS in VirtualBox

Wenn Sie CentOS in VirtualBox verwenden, ist die Bildschirmauflösung auf 1024×768 Punkte limitiert. Abhilfe schafft die Installation der Guest Additions. Dazu führen Sie zuerst im VirtualBox-Fenster das Menükommando Devices/Insert Guest Additions CD image aus, dann innerhalb der virtuellen Machine die folgenden Kommandos:

su -l
yum install gcc make kernel-headers kernel-devel
/run/media/<loginname>/VBOXADD*/VBoxLinuxAdditions.run
reboot

Links

CentOS-Webseite
CentOS 7 Release Notes
CENTOS 7 FAQ
CentOS-7-Downloads
CentOS-7-Vorstellung auf heise.de
CentOS-7-Vorstellung auf lwn.net
CentOS 7 auf distrowatch.com