Anwendungen
Portal
Forum
Wiki
Ikhaya
Planet
Mehr
Anmelden

26. Februar 2015

Fehlerhafte Sektoren in den Verwaltungsstrukturen eines ext4 Dateisystems

Permalink Erfahrungen mit Ubuntu

Da ist mir grade mal ein Dateisystem richtig auf die Füsse gefallen.
Beim Booten lies sich der Rechner richtig lange Zeit, um mich mit dem Fehler
zu Empfangen das ein Dateisystem nicht eingehängt werden könne. Ich habe mich (nach einigen anderen Versuchen) für "ignorieren" entschieden und dann
die Reperatur von Hand durchgeführt.

Laut Smartwerte hat die Platte eine Reihe von defekten Sektoren. Diese lagen wohl
sehr ungünstig in den Verwaltungsstrukturen...

Hier das Ergebnis der manuellen Reparatur (Partition war danach wieder mountbar...)


    root@ubuntu1204:/var/log# fsck /dev/sda3
    fsck von util-linux 2.20.1
    e2fsck 1.42 (29-Nov-2011)
    /dev/sda3: stelle das Journal wieder her
    Lesefehler - Block 7373842 (Ein Block konnte nicht in einem Zug gelesen werden). Ignoriere Fehler<j>? ja
   
    Rückschreiben erzwingen<j>? ja
   
    Lesefehler - Block 7374841 (Ein Block konnte nicht in einem Zug gelesen werden). Ignoriere Fehler<j>? ja
    
    Rückschreiben erzwingen<j>? ja
   
    /dev/sda3 enthält ein fehlerhaftes Dateisystem, Prüfung erzwungen.
    Durchgang 1: Prüfe Inodes, Blocks, und Größen
    Durchgang 2: Prüfe Verzeichnis Struktur
    Verzeichnis Inode 3148984, Block Block Nr.0, Offset 0: Verzeichnis defekt
    Rette<j>? ja
   
    Fehlende „.“ in Verzeichnis Inode 3148984.
    Repariere<j>? ja
   
    Setze Dateitype für Eintrag „.“ in ??? (3148984) auf 2.
    Fehlende „..“ in Verzeichnis Inode 3148984.
    Repariere<j>? ja
   
    Setze Dateitype für Eintrag „..“ in ??? (3148984) auf 2.
    Durchgang 3: Prüfe Verzeichnis Verknüpfungen
    „..“ in /venus/www/piwik/libs/tcpdf/include (3148984) ist <Der NULL Inode> (0), sollte sein /venus/www/piwik/libs/tcpdf (3148952).
    Repariere<j>? ja

    Durchgang 4: Überprüfe die Referenzzähler
    Inode 2 Referenzzähler ist 7, sollte sein 8.  Repariere<j>? ja
   
   
    Inode 3148987 Referenzzähler ist 2, sollte sein 1.  Repariere<j>? ja
   
    Nicht verbunden Inode 3148988
    Verbinde nach /lost+found<j>? ja
   
    Inode 3148988 Referenzzähler ist 2, sollte sein 1.  Repariere<j>? ja
   
    Nicht verbunden Inode 3148989

    Verbinde nach /lost+found<j>? ja
   
    Inode 3148989 Referenzzähler ist 2, sollte sein 1.  Repariere<j>? ja
   
    Nicht verbunden Inode 3148990
    Verbinde nach /lost+found<j>? ja
   
    Inode 3148990 Referenzzähler ist 2, sollte sein 1.  Repariere<j>? ja
   
    Nicht verbunden Inode 3148991
    Verbinde nach /lost+found<j>? ja
   
    Inode 3148991 Referenzzähler ist 2, sollte sein 1.  Repariere<j>? ja
   
    Durchgang 5: Überprüfe Gruppe Zusammenfassung
    jjBlock Bitmap differieren:  -(13115424--13115992) -(13639712--13640290) -(14164000--14164238)
    Repariere<j>? ja
   
    Die Anzahl freier Blöcke ist falsch (12909320, gezählt=12894089).
    Repariere<j>? ja

    Die Anzahl freier Inodes ist falsch (3849263, gezählt=3844539).
    Repariere<j>? ja
   
   
     /dev/sda3: ***** DATEISYSTEM WURDE VERÄNDERT *****
    /dev/sda3: 5701/3850240 Dateien (0.3% nicht zusammenhängend), 2486647/15380736 Blöcke
    root@ubuntu1204:/var/log#





25. Februar 2015

TextSecure – Account löschen

Permalink Donnerdrummel

Es kommt hin und wieder vor, das Menschen nicht mehr auf dem TextSecure Server(n) registriert sein möchten, weil die App deinstalliert wurde oder die (offline) SMS-Verschlüsselung genutzt werden soll.

Ist die App deinstalliert, aber die Nummer noch auf dem Sever registriert, führt dies dazu, das Nachrichten von anderen TextSecure Nutzer_innen, die “TextSecure-Nachrichten” nutzen, auf dem TextSecure Server landen und nicht mehr zur / zum jeweiligen Adressat_in gesendet werden können, weil die App sie nicht mehr abruft.

Wird TextSecure nicht deinstalliert, besteht nach der Deregistrierung (zumindest im Moment noch) die Möglichkeit wieder über verschlüsselte SMS zu kommunizieren.

Am einfachsten gelingt die Löschung der eigenen Nummer indem die Option “TextSecure-Nachrichten” unter “Einstellungen“, durch entfernen des Hakens, deaktiviert wird.

Ist die App schon deinstalliert kann die Seite “Unregister from TextSecure” genutzt werden. Hier kann die Nummer per SMS oder Anruf vom TextSecure Server gelöscht werden.

Aus der 2-Klick-Lösung wird eine 1-Klick-Lösung

Permalink Kaffeeringe

Share Share Share

Der Heise-Verlag hat eine neue Lösung gefunden, Teilen-Buttons zu allen gängigen sozialen Netzwerken datensparsam umzusetzen. Diese 1-Klick-Lösung nennt sich Shariff und es gibt sie auch als WordPress-Plugin.

Bislang hatten Webseiten-Betreiber die Wahl: Entweder nutzt man die offiziellen Share-Buttons von Facebook, Twitter & Co. und ermöglicht es diesen Diensten, Surfer quer durch das Internet zu tracken, oder man nutzt die 2-Klick-Lösung des Heise-Verlags.

Dort müssen Benutzer einmal klicken, um den Button zu aktivieren und ein zweites Mal, um dann tatsächlich den Artikel zu teilen. Der Nachteil dabei ist, dass die Buttons erst nach dem ersten Klick anzeigen, wie oft der Artikel bereits geteilt wurde.

Die neue Lösung spart sich einen Klick: Die Buttons liegen lokal auf dem Webserver und öffnen jeweils ein Teilen-Popup. So habe ich das hier auf der Seite bisher schon mit den Buttons oben rechts an den Artikeln gemacht. Allerdings zeigen die nicht die Anzahl der Likes an.

Bei Shariff holt mein Webserver alle 60 Sekunden die Anzahl der Likes — ansonsten werden keine Daten an externe Dienste weitergegeben und es müssen auch nicht noch mehr Skripte geladen werden.

Damit das funktioniert, muss man in den Einstellungen von Shariff das Cache-Verzeichnis korrekt angeben. Standard-mäßig ist das /tmp eingestellt — das funktioniert auf meinem Webspace nicht. Ich musste den absoluten Pfad zu meinem WordPress-Verzeichnis angeben. Dann ging es sofort.

Ein weiterer, netter Nebeneffekt dieser neuen Lösung: Ich finde die Buttons viel schöner als die alte 2-Klick-Lösung.

Probier die Buttons doch mit diesem Artikel mal aus:

Logrotate manuell ausführen

Permalink Invictus deus ex machina

Mit dem Tool Logrotate werden unter Linux die Logs periodisch rotiert, damit der Speicherplatz nicht irgendwann durch die Logs erschöpft wird. Beim Schreiben einer neuen Konfiguration für Logrotate kann es vorkommen, das man diese anschließend testen möchte. Dazu gibt man im Terminal:

logrotate --force /etc/logrotate.d/dpkg

ein, womit der Vorgang für die definierte Konfigurationsdatei ausgeführt wird. Eventuelle Fehler und Warnmeldungen werden dabei mit angezeigt.

Sicherheit vorinstallierter Software

Permalink [ENC]BladeXP's Blog

Auf den meisten Geräten wie Smartphones, Tablets, Notebooks oder den verbleibenden klassischen PCs, sind im Auslieferungszustand meist sehr viele Programme vom Hersteller vorinstalliert. Die Hersteller bekommen für viele dieser Programme (auf neumodischen Geräten auch Apps genannt) Geld vom jeweiligen Softwarehersteller, nur ein kleiner Teil wird installiert um die Funktionalität des Gerätes zu "verbessern". Der primäre Nutzen dieser Programme dient also dem wichtigsten Unternehmensziel: Der Gewinnmaximierung. Der Nutzen aus Kundensicht ist oft nicht vorhanden oder zumindest nicht nachvollziehbar.

Spätestens seit Superfish, wissen wir das es Hersteller hierbei übertreiben. Was für den Laien nur eine lästige Beigabe darstellt, ist für den Administrator oder Angreifer ein offenes Scheunentor. Es werden Modifikationen an wichtigen Systemkomponenten vorgenommen, wodurch grundlegende Sicherheitskonzepte ausgehebelt, ersetzt oder empfindlich geschwächt werden.

Moderne Betriebssysteme, wozu selbst Windows gehört, gelten als relativ sicher. Voraussetzung sind natürlich die jeweils aktuellen Updates, welche ein verantwortungsbewusster Systemadministrator zeitnah installiert hat. Viele Dinge sind heute Standard, dazugehört z.B. Reduzierung der verfügbaren Dienste über die Netzwerkschnittstelle oder Maßnahmen um administrative Rechte einzuschränken (sudo unter Linux, User Account Control unter Windows). Zusätzliche Maßnahmen um sein System abzusichern würden den Rahmen des Artikels sprengen, aber die heutigen Systeme haben nachweißlich ein besseres Sicherheitsniveau als noch 2001 ;)

Sicherheitsprobleme vorinstallierter Software lassen sich verschieden klassifizieren, eine mögliche Aufteilung hierbei:

  • Dienst läuft mit administrativen Rechten, selbsterklärend ohne diese zu benötigen.
  • Dienst lauscht an den Netzwerkschnittstellen, die vorhandene Firewall wurde hierfür natürlich "angepasst".
  • Programm macht keine automatischen Updates.
  • Programm modifiziert die Liste "vertrauenswürdiger" CAs (Certificate Authority).
Je länger man darüber nachdenkt, desto mehr mögliche Kategorien gibt es. Die oben genannt dürften aber die Wichtigsten und damit am problematischsten sein. Ich werde nachfolgend kurz auf die jeweiligen Kategorien eingehen.

Dienste als Administrator laufen zu lassen ist einfach und hat den Vorteil, dass man sich nicht mit dem jeweiligen Berechtigungssystem des Betriebssystems beschäftigen muss. Aus Perspektive eines Angreifers sind Dienste die als Administrator laufen besonders lohnenswerte Ziele, in Kombination mit einer vorhandenen Lücke gibt es kaum einen Weg einfacher (unbemerkt) an administrative Rechte zu kommen. Der Administrator entscheidet was auf einem System passiert, bekommt man durch einen fragwürdig konstruierten Dienst an diese Rechte übernimmt man diese Möglichkeit.

An Netzwerkschnittstellen lauschen, also Dienste im Netzwerk bereitstellen, wird gerne von vielen automatischen Konfigurationstools für Drucker oder andere Netzwerkgeräte genommen. Ein normalerweise von außen nicht oder nur schwer erreichbares System bietet mir so, die Möglichkeit einen Zugang zum System zu erhalten. Läuft der Dienst zusätzlich noch als Administrator, haben wir ein offenes Scheunentor, Premium Style.

Dienste und Anwendungen die keine automatischen Updates aktiviert haben, müssen vom Anwender manuell aktualisiert werden. Das klingt je nach Betriebssystem (z.B. Linux) trivial, kann aber zu mehrstündigen Update Sessions (z.B. Windows) führen. Der einfache SOHO-Anwender ist hiervon meist überfordert und verzichtet auf diesen Aufwand. Ob dies am Unwissen liegt oder Absicht ist, muss jeder selbst entscheiden, es dürfte in der Regel wohl eine Kombination aus beidem sein. Problematisch ist, dass nicht aktualisierte Anwendungen auch nicht von Sicherheitsupdates profitieren, geschlossene Sicherheitslücken bleiben also bis in alle Ewigkeit vorhanden und nutzbar.

Neben diesen sehr offensichtlichen und nachvollziehbaren Problemen gibt es aber auch noch die Option einfach an der Liste "vertrauenswürdiger" CAs zu spielen. Die meisten Anwendungen welche mit TLS (früher SSL) umgehen können haben eine Liste dieser Zertifizierungsanstalten. Eine CA prüft mehr oder weniger aufwendig ob der Inhaber einer Domain brauchbare Informationen über seine Identität liefert, es wird nicht geprüft ob dieser wirklich vertrauenswürdig ist! Die Anwendung kennt also viele dieser CAs, die CAs wiederum "kennen" den Betreiber der Seite. Die Konsequenz aus dieser ganzen Aktion ist, dass der Browser keine Fehlermeldung beim Verbindungsaufbau anzeigt und ein kleines Schlosssymbol signalisiert, das alles bestens sei.

Durch Modifikation dieser Liste, in der Regel werden zusätzliche CAs eingetragen, kann erreicht werden, dass verschlüsselte Verbindungen gebrochen werden. Es handelt sich dabei um einen Man-in-the-Middle-Angriff, wobei der böse Mann (oder Frau) in der Mitte, plötzlich unser eigener PC ist. Unsere Anwendung, z.B. Firefox oder der Internet Explorer, signalisieren uns das alles funktioniert. In Wirklichkeit haben wir nur eine "brauchbar" verschlüsselte Verbindung bis zum fragwürdigerweise vorinstallierten Tool des Herstellers, erst dieses Tool baut die "korrekt" verschlüsselte Verbindung zum Zielsystem auf.

Problematisch ist hierbei das Dienste/Programme wie Superfish hierbei äußerst schlampig vorgehen und die Zertifikate nicht korrekt überprüfen. Der Browser bzw. die Anwendung zeigt also keine Probleme an, obwohl wir ein ungültiges Zertifikat bekommen haben. Dieses ungültige Zertifikat hat jedoch nie unseren Browser (Anwendung) erreicht, wir leben in trügerischer Sicherheit während jemand gemütlich unsere Informationen mitlesen kann. Wenn man jetzt noch darüber nachdenkt, dass der Hersteller des Gerätes diese fragwürdige Software nur aus Werbezwecken vorinstalliert hat, könnte einem dabei richtig schlecht werden ;)

Es wäre falsch das Problem jetzt ausschließlich bei Lenovo zu suchen, es handelt sich meiner Meinung nach um ein Problem, welches in der Branche grundsätzlich vorhanden ist. Seitens der Industrie erwarte ich hier auch keine Lösung, ich selbst werde bei meiner bisherigen Lösung bleiben: Neu gekaufte Geräte werden von einem potenziell sauberen Installationsmedium frisch installiert.

Ein Nachteil meiner Lösung ist das sich dies nicht auf alle Geräte anwenden lässt, Techniken wie SecureBoot oder vernagelte Bootloader an Smartphones und Tablets nehmen mir zunehmend die Freiheit mit meinem Gerät zu machen, was ich als Kunde möchte. Die Gefahr die Herstellergarantie zu verlieren ist allgegenwärtig, einzig der Gesetzgeber könnte, wenn er den wollte, hier eine Lösung erzielen.

24. Februar 2015

Linux: VNC Zugriff via SSH realisieren

Permalink Pirates Of Art

Ich komme öfters mal in die Verlegenheit auf den Desktop meines Heimrechners zugreifen zu müssen. Da ich nicht unbedingt ein Freund von TeamViewer bin, verwende ich hier lieber VNC. Leider bringt VNC von Haus aus keine Verschlüsselung mit, deshalb ist eine Verbindung via SSH pflicht.
 
Hier erhaltet Ihr eine Anleitung, wie Ihr via SSH und VNC remote auf Euren Linux-Desktop zugreifen könnt.
 
Voraussetzung ist, dass Ihr den Display Manager LightDM verwendet. Dieser kommt seit Ubuntu 11.10 zum Einsatz.


Ich gehe davon aus, dass eine funktionierende SSH-Verbindung eingerichtet ist. Alternativ, findet Ihr hier eine Anleitung zur Einrichtung eines “SSH-Zugangs via Public Key”
 
Als ersten Schritt, installieren wir auf dem Zielrechner den VNC-Server mit:
sudo apt-get install x11vnc
 
vnc1
 
Ist der VNC-Server installiert, müssen wir ein Passwort vergeben, da von Haus aus ein Zugriff ohne Passwort möglich ist. Dieses geschieht mit
sudo x11vnc -storepasswd /etc/x11vnc.pass.
Anschließend ein Passwort vergeben.
 
vnc2
 
Damit der VNC-Server automatisch beim Rechnerstart geladen wird, müssen wir noch ein INIT-Skript erstellen. Hierzu erstellen wir eine Datei mit
sudo vim /etc/init/x11vnc.conf
und fügen folgenden Inhalt ein:

start on login-session-start
script
x11vnc -xkb -auth /var/run/lightdm/root/:0 -noxrecord -noxfixes -noxdamage -rfbauth /etc/x11vnc.pass -forever -bg -rfbport 5900 -o /var/log/x11vnc.log
end script

Möchte sich jemand mit dem Skript näher auseinandersetzen, empfehle ich die Ubuntu Manpage von x11vnc
 
Anschließend speichern “:x” und den Rechner am besten neu starten. Nach einem alleinigen Neustart des Dienstes, war bei mir keine Verbindung möglich. Dies ging erst nach dem Neustart.
 
vnc4
 
Jetzt könnt Ihr Euch mit folgendem Befehl auf Euren Rechner verbinden. Der vncviewer ist bereits in Ubuntu enthalten.
vncviewer -via user@rechner localhost
 
vnc3
 
 
Anleitung wurde mit Lubuntu 14.04 erstellt
 
Fazit:
Ich finde dies eine einfache Art um sich auf einen Linux-Desktop remote zu verbinden. Bitte beachtet, wenn Ihr auf Euren PC zu Hause zugreifen möchtet, muss eventuell eine Portweiterleitung für SSH auf Eurem Router eingerichtet werden.
 
 
Schiff Ahoi Ihr Landratten …
Euer RSB

23. Februar 2015

Eigene Scans in durchsuchbare PDFs umwandeln

Permalink Kaffeeringe

Scan

Aus selbst gescannten Dokumenten lassen sich relativ einfach durchsuchbare PDFs erzeugen — zumindest unter Linux.

Schon vor einiger Zeit habe ich mich damit beschäftigt, wie man unter Ubuntu alte Dokumente digitalisieren kann. Das ist weiterhin ein gutes Verfahren, wenn man nur an die Text-Inhalte herankommen will, ohne alles abtippen zu müssen.

PDF bietet aber auch die Möglichkeit, über die gescannten Bilder eine unsichtbare Ebene Text zu legen. So erhält man den alten Look der Dokumente, kann aber die Texte durchsuchen, markieren und kopieren. Das Ergebnis nennt sich Sandwich–PDF.

Zunächst hatte mir mein Scanner nur einen Stapel JPG–Grafiken ausgeworfen, die alle in einem Verzeichnis lagen. Daraus lässt sich mit GraphicsMagick sehr leicht ein PDF erstellen. Dazu musst du GraphicsMagick installieren, wenn Du das noch nicht getan hast:

1
sudo apt-get install graphicsmagick

Dann kannst Du die Bilder zu einem PDF zusammenfügen. Dazu musst Du die Dateien in der richtigen Reihenfolge angeben:

1
gm convert datei1.jpg datei2.jpg datei3.jpg ergebnis.pdf

Das resultierende PDF ist dann noch nicht durchsuchbar. Dazu musst Du ein kleines Skript benutzen, das ich bei auxnet gefunden habe. Allerdings lief das bei mir nicht korrekt durch, weil die Dateiendung der temporären Dateien eine andere war, als das Skript annimmt.

Installier dazu folgende Tools — da ist auch Tesseract mit den deutschen Interpretations-Dateien dabei, falls Du es noch nicht installiert hast:

1
sudo apt-get install pdftk poppler-utils tesseract-ocr tesseract-ocr-deu

Kopier Dir dieses Skript…

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
#/bin/bash

if [ $# –eq 0 ]
then
echo „PDF-Datei als ersten Parameter erwartet„
exit 1
fi

echo „Lese: $1″

# Basisnamen für später merken
pdfbase=$(basename „$1″ .pdf)

# Extrahiere Bilder aus PDF
pdfimages „$1″ temp

# Lese Bilder einzeln und wende OCR an
for image in temp–*.ppm
do
base=$(basename $image .ppm)
echo „OCR auf $base
tesseract –l deu $image ${base} pdf
done

# Fasse einzelne PDFs wieder zusammen
echo „PDFs zusammenfassen„
pdftk temp–*.pdf output ${pdfbase}_sandy.pdf„

# Lösche temporäre Dateien
echo „Aufräumen…„
rm temp–*.pdf temp–*.ppm

echo „Fertig!“

…und speicher es unter sandy.sh in Deinem Home-Verzeichnis und mach es ausfürbar:

1
chmod +x sandy.sh

Leg Dein ergebnis.pdf in das gleiche Verzeichnis und starte das Skript:

1
./sandy.sh ergebnis.pdf

Dabei kommt dann die Datei ergebnis_sandy.pdf heraus, die durchsuchbar ist. Fertig.

Ein wenig problematisch ist, dass man das Ergebnis natürlich nicht richtig überprüfen und nachbessern kann. Ob Tesseract die Texte korrekt erkannt hat, kann man nur feststellen, wenn man die Texte kopiert und in einen Editor einfügt. Besser als gar nichts, ist das aber alle mal.

Probleme bei WordPress-Aktualisierung

Permalink Intux

wordpress-logo-stacked-rgb

Dem einen oder anderen User der produktiv WordPress einsetzt und entsprechend pflegt wird aufgefallen sein, dass es bein Update auf Version 4.1.1 Probleme geben kann. Will man das Update anstoßen, kann es passieren, dass man hierbei auf einer weißen Seite landet. Dieses Problem soll wohl bei mehreren Hostern auftreten.

Abhilfe schafft hier kurzfristig folgender Eintrag am Ende der wp-config.php.

define( 'FTP_USER', 'benutzer' );
define( 'FTP_PASS', 'passwort' );
define( 'FTP_HOST', 'hostname' );

Eine weitere Möglichkeit wäre das Umstellen auf PHP FastCGI in der .htaccess durch das Einfügen der Zeile

AddHandler php-fastcgi .php

am Anfang der Datei.

Natürlich bekommt man auch ohne diese Eingriffe das Update manuell hin! Wie es geht, ist hier genau beschrieben.

22. Februar 2015

Wochenrückblick 08/2015

Permalink deesaster.org

Der Wochenrückblick lässt das Geschehen der vergangenen Woche rund um Ubuntu, Linux und Open Source Revue passieren.

Rund um Ubuntu

Umorganisation des ubuntu Deutschland e.V.

Der ubuntu Deutschland e.V. kümmert sich in Deutschland um die Ubuntu-Gemeinschaft und unterstützt beispielsweise finanziell und auch personell auf Messen, auf denen Ubuntu vertreten ist. Der Verein wurde im letzten Jahr etwas umorganisiert.

Mehr Informationen gibt es im Ikhaya-Artikel.

Ubuntu 14.04.2 LTS veröffentlicht

Die langzeitstabile Ubuntu-Version 14.04 „Trusty Tahr” erhielt zehn Monate nach der Veröffentlichung im April 2014 jetzt ihr zweites größeres Update. Benutzer von Trusty Tahr müssen nichts weiter tun, da sie immer die neueste Version haben. Wer Trusty als 14.04.2 neu installiert, sollte beachten, dass die neue Kernelversion nur bis August 2015 unterstützt wird (siehe LTS_Enablement_Stacks).

Mehr Informationen gibt es im Ikhaya-Artikel.

Weitere Quellen: Ubuntu Fridge, OMG!Ubuntu!, Pro-Linux, heise open

Ubuntu Phone erklärt

Sujeevan Vijayakumaran war beim Ubuntu Phone Launch Insider Event in London dabei und konnte ein bq Aquaris E4.5 mitnehmen. In seinem Blog stellt er die Bedienung des Geräts und Ubuntu Touch ausführlich vor. In einer FAQ beantwortet er daneben noch einige Fragen rund um das Gerät und das Betriebssystem.

Ubuntu Membership Board sucht neue Mitstreiter

Da nach ihrer zweijährigen Arbeit einige Mitarbeiter des Membership/Boards:Ubuntu Membership Boards ausscheiden, werden ab sofort Nachfolger gesucht, die sich bis zum 9. März 2015 bewerben können. Jedes offizielle Ubuntu-Mitglied kann mitmachen.

Quelle: Ubuntu Fridge

Neues rund um Linux

OpenStreetMap mit Routing-Möglichkeit

Ich nutze OpenStreetMap fast täglich. Im Gegensatz zu Google Maps fehlte OSM aber bisher immer eine Routing-Möglichkeit, die jetzt (gefühlte 100 Jahre zu spät) endlich Einzug hält. Bei heise open heißt es „Das Projekt für freie Karten hat die Routensuche prominent auf der Hauptseite integriert.“ Das wurde so gut integriert, dass ich den Knopf dafür auf Anhieb nicht entdeckt habe. Ich musste erst die Erklärung in Bernds Blog lesen, ehe ich das Symbol gefunden habe.

Im Endeffekt ist es nett, eine Routing-Funktion in OSM zu haben. Vor allem für die schnelle Wegberechnung von Bahnhof zum Kino und dergleichen, wenn man eh gerade eine Örtlichkeit sucht, ist sicherlich sinnvoll. Für „richtige“ Navigation, d.h. für mich vor allem fürs Radfahren, nutze ich aber nach wie vor OpenRouteService, weil die Routen einfach besser sind.

Suse Enterprise Linux 12 im Test

Normalerweise berichte ich nicht groß über andere Distributionen außerhalb von Ubuntu, da ich deren Treiben zwar verfolge, aber eben doch Ubuntu (genauer Xubuntu) nutze. Bei Golem ist aber ein interessanter Artikel zu Suse Enterprise Linux SLED 12 erschienen, der sich mit der Sinnhaftigkeit von Bezahl-Desktop-Distributionen beschäftigt und dabei das Modell von Suse auch gegen das von Canonical stellt.

Lösung: OwnCloud 8 Galerie lädt keine Thumbnails mehr

Permalink thomas-leister.de

Nach dem Upgrade von OwnCloud 7 auf OwnCloud 8 wurden mir in der Gallery-App keine Bilder mehr angezeigt. Ein Blick in die Firefox-Developertools hat gezeigt, dass eine Anfrage an den Server nicht beantwortet wurde, sodass die Thumbnails nicht geladen werden konnten.

Die Anfrage an den Server war extrem lang: Fast 11 kB groß. Mein Nginx Webserver hat aber nur URLs akzeptiert, die maximal 8 kB groß waren, also habe ich die Einstellung im zuständigen server {} Bereich angepasst:

large_client_header_buffers 4 14k;

Nun wurden auch URLs mit bis zu 14kB Länge angenommen und verarbeitet. Nach einem neu Laden der Serverkonfiguration via

service nginx reload

habe ich die OwnCloud Galerie neu aufgerufen und gewartet, bis die Thumbnails generiert und geladen waren.

Zwischenbericht: K/Ubuntu 14.04 LTS nach 9 Monaten

Permalink (Mer)Curius

Vergangene Woche hat Ubuntu mit leichter Verzögerung das zweite Point-Release für die jüngste LTS Version 14.04 herausgebracht. Zuverlässig begann in den Foren der üblichen Verdächtigen der kleine Trollsport über den LTS-Status. Ubuntu mag nicht mehr die populärste Distribution sein, auf jeden Fall ist der Hype vorbei – Neuigkeiten scheinen aber noch zuverlässig für Diskussionsstoff zu sorgen.

Die Grenzen des Universums

Zum grundsätzlichen Problem der LTS-Versionen wurde sich hier schon mal geäußert. Ubuntus Aufteilung der Paketquellen ist im Linux-Universum sicherlich einzigartig, aber letztlich konsequent. Nur auf diese Weise lassen sich schier unermesslich große Paketquellen noch sinnvoll verwalten. Dass Universe keineswegs ungepflegt ist hat kürzlich Virtualbox gezeigt. Das Paket liegt gemeinhin im Niemandsland von Universe und wird auch von keinem größeren Team betreut. Dennoch erhielt es fast zeitgleich zu den anderen Distributionen die notwendigen Sicherheitsaktualisierung. Hinzu kommt, dass viele Bereiche von Universe von einigen Teams wie dem Kubuntu-Team betreut werden und deshalb auch nicht als unsupportet gelten können.

Solche Differenzen zwischen der ursprünglichen Struktur und der gegenwärtig realen Entwicklung treten wohl in allen größeren Projekten auf. Die treffendste Auskunft über den Supportstatus der Pakete liefert deshalb wohl:

$ ubuntu-support-status –show-all

Unklare Paketzuordnung

Im Februar 2015 läuft allerdings nun die erste 9-Monats-Phase des Releases ab. Gemäß der ubuntu-support-status Ausgabe werden damit einige Pakete ihren Support verlieren. Neben einigen Multimedia-Codecs betrifft dies VLC und DigiKam. Während letzteres wohl trotzdem kein Problem darstellen wird, weil hier quasi nie sicherheitsrelevante Updates nötig sind, könnte VLC mittelfristig kritisch werden. Immerhin betrifft es ein sehr verbreitetes Programm, dass viele Windows-Umsteiger noch von früher kennen.

Das wirft ein Schlaglicht auf die interessante Zusammensetzung der unterstützen Pakete in Ubuntu. Neben den Basispaketen wie Kernel, X-Server und Kernbibliotheken des Systems gehören dazu auch Programme wie GIMP, die auf keinem Derivat standardmäßig vorinstalliert sind. Umgekehrt gehören verbreitete Virtualisierungslösungen wie Virtualbox offiziell nicht dazu, die Virtualbox-Scope für Unity hingegen schon. Mit VLC der plattformübergreifende, quasi-standard Multimedia-Player hingegen auch nicht.

Es ist verständlich, dass man nicht für jedes Paket in den unermesslichen Weiten des Debian-Systems Support leisten kann. Debian schafft das ja selbst nicht, wie die offenen Sicherheitslücken in diversen Wheezy-Paketen zeigen. Manchmal kommt man als Anwender dennoch nicht umhin sich über die Auswahl der unterstützten Pakete zu wundern. Inwieweit hier noch wichtige Updates auf lange Sicht erfolgen werden ist deshalb leider vollkommen unklar.

Ein weiteres Problem stellen die mit jedem Point-Release auf den Installationsmedien ausgelieferten neuen Kernel und X-Server Versionen dar. Diese haben – anders als die ursprüngliche Version vom April 2014 – eine verkürzte Supportdauer von 9 Monaten. Leider werden sie danach nicht zuverlässig auf die nächste Version aktualisiert bzw. gefährden die Systemstabilität einer LTS-Version. Die Gratwanderung zwischen Unterstützung neuer Hardware und Systemstabilität wurde hier nicht besonders gut gemeistert.

Neue und alte Fehler

Hinzu kommt, dass Trusty in den vergangenen Monaten in einigen Bereichen schon nicht besonders glänzte. So wurde durch fehlerhafte Updates die Dialogintegration von LibreOffice in KDE kaputt (LP #1369673) gefixt, Digikam stürzt aufgrund eines Sqlite-Fehler zuverlässig ab (LP #1317449) und die Xmodmap wurde auch durch ein Update abgeschaltet. Bei Release bestehende gravierende Fehler wie die fehlerhafte Verschlüsselung mittels ecryptfs (Benutzerdaten verschlüsseln in der Installationsroutine) wurden noch nicht behoben (LP #953875).

Diese Fehler werden ergänzt durch die subjektive Wahrnehmung, dass die Bedeutung der vergangenen LTS-Version beim Ubuntu-Team nach 9 Monaten abnimmt. Die Weichen werden in Richtung 16.04 gestellt. Wichtige Funktionen nun in die STS Versionen eingebracht. Aktualisierungen für Trusty beziehen sich nun überwiegend auf Sicherheitslücken. Reine Fehleraktualisierungen darf man wohl nur noch in seltenen Fällen erwarten.

Zusammenfassend muss man feststellen, dass das gegenwärtige LTS-Release in den ersten 9 Monaten nicht sonderlich geglänzt hat. Teilweise bedingt durch strukturelle Mängel, teilweise aber auch weil Bugs nicht behoben oder Updates unzureichend geprüft werden. Für Nutzer, die ein System wirklich nur benutzen wollen sind solche Entwicklungen ein Ärgernis. Schließlich ist ein funktionsfähiges und vor allem sicheres Desktopbetriebssystem die Basis für jedwede Bemühungen um Datenschutz.

ownCloud Android Client 1.7.0 mit großen Neuerungen erschienen

Permalink Finns Blog

Nachdem vor etwa zwei Wochen ownCloud in der Version 8.0.0 erschien, ist nun vor drei Tagen der Android Client in der Version 1.7.0 erschienen. Das Changelog sieht auf dem ersten Blick zwar recht knapp aus, beinhaltet aber einige interessante Neuerungen.

Nach dem Update auf die aktuelle Version fällt nun zuerst auf, dass am Ende die Anzahl der Ordner und Dateien angezeigt wird. Es ist zwar nur eine kleine Neuerung, aber durchaus sehr hilfreich.

owncloud_android_170

Besonders beim Betrachten von Bildern mit ownCloud haben mich ein paar Dinge gestört, die von den Entwicklern nun endlich bedacht wurden.

Es ist nun möglich, einen kompletten Ordner herunterzuladen.

owncloud_android_download_folder

Das Betrachten und Herunterladen von einzelnen Bildern hat zwar bisher auch funktioniert, aber diese wurden leider nicht automatisch der Android Galerie hinzugefügt. Entweder musste das Gerät neu gestartet werden oder man musste das Durchsuchen des Speichers nach Bildern mit einen anderen Anwendung manuell anstoßen. Heruntergeladene Bilder werden nun automatisch und sofort der Galerie hinzugefügt.

Aber vielleicht möchte man nur einen kurzen Blick auf die Bilder werfen, bevor man diese herunterlädt. Dies wurde mit den Remote Thumbnails und der Grid-Ansicht deutlich vereinfacht:

owncloud_android_grid

Laut Changelog wurde auch die Behandlung der EXIF Informationen in den Bildern verbessert. Die EXIF Daten beinhalten u.a. auch Rotationseinstellungen, die bisher von ownCloud nicht korrekt verarbeitet wurden. Das Neigen des Kopfes beim Anschauen von Bildern sollte also ebenfalls der Vergangenheit angehören.

Generell bin ich mit ownCloud sehr zufrieden. Der ownCloud Server läuft stabil und fehlerfrei, wird in meinen Augen mit jeder Version besser und kann sich zweifelsfrei gegenüber anderen Cloud-Diensten behaupten. Wer sich übrigens wundert, dass der ownCloud Client im Google Play Store etwas kostet: Das war auch mir sehr lange Zeit nicht bekannt, da ich nur F-Droid und keine Google Dienste nutze. Die Software ist zwar frei (im Sinne von einer freien Lizenz), aber das schließt Kosten für den Erwerb der fertigen Anwendung nicht aus.

21. Februar 2015

Das PPA ist dem Backport sein Tod

Permalink (Mer)Curius

Kürzlich musste ich einen PC mit Debian ausstatten. Zwar haben Debian und ich seit letztem Jahr unsere Differenzen aber manchmal bietet halt nur Debian das was man gerade benötigt – insbesondere wenn es sich dabei um besonders alte Versionen handelt. In meinem Fall war das der X-Server nicht neuer als Version 1.12, da in dem Computer eine sehr betagte NVIDIA Grafikkarte arbeitet, die den 96er-Legacy Treiber benötigt, der nur bis Version 1.12 funktioniert. Nouveau bringt das System leider eher zum flattern flackern als zum fliegen. Normalerweise nehme ich für solche Dinosaurier gerne CentOS 6, da es den Wartungsaufwand minimiert und GNOME 2 eine sehr ressourcensparende Oberfläche war. Leider hält RedHat zwar den Kernel stabil, aber der X-Server wird bei jedem Minorupdate aktualisiert. Der 96er Treiber hatte also irgendwann aufgehört zu funktionieren. Auch eine interessante Definition von Stable, aber das soll hier nicht das Thema sein.

Debian Wheezy ist nicht mehr das jüngste System. Der Release des Nachfolgers Jessie steht unmittelbar bevor (sofern man das bei Debian vorhersagen kann). Das ist grundsätzlich kein Problem. Nur Versionsfetischisten erfreuen sich an jedem Update. Gerade betagte Hardware wird meistens seit Jahren vom Kernel perfekt unterstützt, da kommt es auf ein paar Versionen nicht an. Leider gibt es immer einige Programme, bei denen man partout eine neue Version braucht. Sofern man LibreOffice benutzt gehört das zu diesen Kandidaten. Die verbesserten Importfilter für OOXML Dateien will man sich selten entgehen lassen.

Debian überrascht in dieser Sache überaus positiv. Unglaublich viele Pakete sind in nahezu aktueller Version in den Backports verfügbar und lassen sich auf einen stabilen Unterbau nachinstallieren. Das reicht bis zu ganzen Desktopumgebungen wie MATE. Zwar werden diese Backports nicht offiziell vom Sicherheitsteam betreut aber oft steht dahinter derselbe Maintainer wie beim Paket für die Distribution. Die Backports machen durch die Bank einen gut gepflegten Eindruck und wenn man sich nicht zu exzessiv bei ihnen bedient, dürfte es der Systemstabilität keinen Abbruch tun. Damit kommt Debian dem Ideal eines stabilen Unterbaus, bei aktuellen Anwendungen ziemlich nahe.

Ganz anders sieht die Situation bei Ubuntu aus, obwohl es mit der LTS-Variante ein ähnliches – wenn auch geplanteres – Releasemodell verfolgt wie Debian. Die Pakete im offiziellen Backportzweig sind weder besonders zahlreich, noch sonderlich aktuell. Wenn man bei Ubuntu auf aktuelle Software angewiesen ist, muss man eine Vielzahl von unterschiedlichen PPA’s in sein System einbinden. Dies ist besonders deshalb fatal, weil PPA’s hierfür nie konzipiert wurden. Hier wurde die Pflege des Backport-Zweiges offensichtlich zu Gunsten der PPA’s aufgegeben.

Nun könnte man meinen, dass das lediglich ein oberflächlicher Unterschied ist und letztlich zum selben Ergebnis führt, dem ist aber nicht so. Die “offizielle” Backports-Quelle von Debian und Ubuntu ist niedriger gepinnt, als die Standardquellen, weshalb man die Pakete gezielt aus den Backports anfordern muss. Es werden also ungefragt keine Pakete im Nachhinein aktualisiert. PPA’s sind standardmäßig normal gepinnt und aktualisieren alle Pakete, die in einer neueren Version im PPA vorhanden sind. So kann ein PPA, das vor Monaten mal wegen irgendwas hinzugefügt wurde unglaublichen Schaden anrichten – jedenfalls wenn man nicht genau hinschaut. LTS-Systeme installiert man aber um eben nicht bei jedem Update genau hinschauen zu müssen. Man ist ja nicht bei Arch oder Debian Sid. PPA’s sind zudem vollkommen inoffiziell und manchmal werden nicht immer genug überprüft. Ein Paket ist eben viel schneller im PPA, als auf dem Backport-Server. Dadurch geschehen eben auch mal Fehler, einfach weil Maintainer Menschen sind und diese nun mal Fehler machen. Im Sommer wurde beispielsweise im offiziellen Kubuntu-Backports PPA aus Versehen Plasma 5 hoch geladen. Wer im falschen Zeitfenster ein Update durchführte zerschoss sich sein komplettes LTS-System, sofern er nicht wegen der großen Zahl an Paketupdates stutzig geworden war. Bei der Backportquelle wäre das nicht passiert!

Auf die Spitze getrieben wird die Problematik, wenn man für Fehlerbehebungen auf PPA-Quellen verwiesen wird, weil es für die Betreuer zu kompliziert ist die Updates offiziell bei Ubuntu einzubringen.

Die PPA-Quellen haben einerseits vieles vereinfacht, weil die Anwender kaum noch Programme selbst kompilieren müssen. Der Vergleich mit Debian zeigt aber auch, dass einige sinnvolle Einrichtungen einer Distribution damit konterkariert wurden und die Systemstabilität darunter leiden kann. Für Systeme die massiv auf zurück portierte Anwendungen angewiesen sind kann deshalb der Einsatz von Debian fundamentale Vorteile bringen. Dies auch als persönlich Anmerkung zu meinem Jessie-Test, wo ich nach den signifikanten Vorteilen von Debian gesucht hatte.

Geräte im Heimnetz synchron halten mit Syncthing

Permalink (Mer)Curius

Die wachsende Anzahl an Endgeräten stellt jeden Benutzer vor das Problem der Datensynchronisation. Während es für Mails, Kalender und Kontakte freie Protokolle gibt ist die schlichte Datensynchronisation weiterhin ein Problem. Dies liegt nicht zuletzt daran, dass viele Nutzer ihre Daten einfach in die Cloud schicken und von den Anbietern auch dazu ermuntert werden. Früher existierende Werkzeuge wie Windows Mesh oder die Möglichkeit seine Mobilgeräte via USB-Kabel mit dem Notebook oder PC abzugleichen wurden von den Herstellern gestrichen um den Nutzer in die Cloud zu drängen. Cloud ist schließlich das nächste große Geschäft, während sich mit den Systemen kein Geld verdienen lässt. Linux und Android sind an dieser Entwicklung sicherlich nicht ganz unschuldig. Dass man nebenbei noch eine ganze Menge Nutzerdaten abgreifen kann und so viel mehr über seine Kunden erfährt, als bei einem herkömmlichen Betriebssystem ist ein netter Nebeneffekt. Sofern man für den Cloudspeicher nicht zahlt, möglicherweise sogar weit mehr als das.

Bisher habe ich für die Synchronisation eine Kombination aus ownCloud und Samba-Heimnetz verwendet. Das wurde zunehmend zum Problem. Meine aktuellen Arbeitsunterlagen umfassen mehrere Gigabyte, was sich mit ownCloud zunehmend schlechter verarbeiten ließ. Gleichzeitig ist Samba ein höchst fehleranfälliges und umständliches Protokoll. Das hinzufügen von Freigaben und die Synchronisation via rsync gestaltet sich relativ umständlich.

Eine Alternative bot sich seit Anfang 2013 in Form des Dienstes BitTorrent Sync. Dabei wird via P2P Verbindung wischen den Geräten synchronisiert ohne zentralen Server, wie dies bei einer Cloud – und sei es auch nur auf einem lokalen einem raspberry pi – der Fall ist. Der Nachteil von BitTorrent Sync liegt darin, dass es proprietär ist und die Daten über das Internet synchronisiert. Dies geschieht zwar verschlüsselt, aber jede Verschlüsselung ist potenziell knackbar, wenn sie nicht schon gebrochen wurde. Wirkliche Sicherheit gibt es nur, wenn man die Dateien erst gar nicht in das Netz entlässt.

Die freie Alternative Syncthing ließ zum Glück nicht lange auf sich warten. Das Prinzip ist dasselbe: Mittels der P2P Verbindung werden beliebig viele Rechner verbunden, die dann – sofern eingeschaltet – festgelegte Ordner miteinander abgleichen. Interessant an Syncthing ist, dass es sich auf das Heimnetz beschränken lässt.

Installation und Konfiguration von Syncthing

Syncthing zu installieren und einrichten ist ein wirklich einfach. Entweder man bedient sich bei GitHub oder bindet ein nicht-offizielles PPA für Ubuntu ein. Ich pflastere meine Systeme nicht so gerne mit Fremdquellen zu, weil man nie genau weiß, was sich dort langfristig tut. Deshalb lade ich mir meist einfach die .deb Datei herunter und aktualisiere diese auch manuell. Das erfordert natürlich ein wenig Pflegeaufwand, aber wer mehrere Windows-Systeme administriert kennt manuellen Pflegeaufwand. Bei zwei, drei Linux-Programmen wird man das überstehen.

Nach der Installation – egal ob via PPA oder heruntergeladenem .deb Archiv – startet man Syncthing erstmalig in der Konsole via

$ syncthing

Dabei wird ein Schlüssel erzeugt und die Einrichtung vorgenommen. Die Konfiguration geschieht im Browser über localhost:8080, eine Vorgehensweise die man auch von CUPS kennt. Als erstes geht man in die Einstellungen:

Syncthing-Einstellungen

Hier deaktiviert man die Globale Auffindung und beschränkt Syncthing auf das Heimnetz. Die einzige Schwierigkeit besteht nun noch darin die ewig lange Geräte-ID der zu synchronisierenden Geräte einzugeben. Danach richtet man die zu synchronisierenden Ordner ein. Standardmäßig legt Syncthing bereits einen Ordner Sync im Homeverzeichnis an. Quasi als Äquivalent zum Dropbox/ownCloud etc. pp. Ordner, den man von den meisten Cloudspeichern kennt.

Fazit

Syncthing eignet sich hervorragend um mehrere Geräte im Heimnetz synchron zu halten. Allerdings müssen die Geräte dazu gleichzeitig eingeschaltet sein, was ein Mindestmaß an Planung voraussetz. Einfach morgens das Notebook in die Tasche stecken reicht dafür nicht. Dafür verlassen die Daten das heimische Netz nicht und gegenüber Samba & Konsorten ist Syncthing ein enormer Komfortgewinn. Bei ersten Tests mit Ordner mit ~1.000 Dateien wickelte Syncthing Lösch-, Verschiebe- und Umbennenungsaktionen zuverlässig ab. Einen herkömmlichen Cloudspeicher ersetzt es jedoch nicht unbedingt, das ist vom Nutzerprofil abhängig.

DANTE-Frühjahrstagung in Stralsund im April – Eigene LaTeX-Arbeiten als E-Book veröffentlichen

Permalink deesaster.org

Stralsund

Vom 16. bis 19. April findet im wunderschönen Stralsund (Zufrieden, Christina?) die Frühjahrstagung der Deutschsprachigen Anwendervereinigung TeX e.V. (kurz DANTE). An drei Tagen wird es (hoffentlich) viele interessante Vorträge zum Thema LaTeX geben. Ich freu mich aber vor allem auf die Stadt (und einige Einwohner).

Ich halte einen Workshop zum Thema „Eigene LaTeX-Arbeiten als E-Book veröffentlichen”. E-Book-Reader erhalten immer mehr Bedeutung und so ist es nicht verwunderlich, wenn man seine eigene Arbeiten aus der Schule oder Universitätsbereich als E-Book veröffentlichen will. Der Weg von LaTeX zum E-Book im EPUB-Format ist immer noch beschwerlich. In dem Workshop will ich zeigen, welche Programme es für die Konvertierung gibt und wo man gegebenenfalls manuell ansetzen muss.

Anhand eines Beispieldokuments, welches zahlreiche, häufig genutzte LaTeX-Elemente benutzt, werden die Fähigkeiten der HTML-Konverter (aus denen man danach das EPUB erstellt)

und die beiden EPUB-Konverter

live vorgestellt.

Eigene „Probleme“ und Dokumente können für einen Test gerne mitgebracht werden. Auch ein Notebook kann nicht schaden, auf denen man sich zum Mitmachen die oben genannten Programme installieren kann.

Software – gitk

Permalink DevDiary

Die Versionsverwaltung git dürfte vielen bereits bekannt sein, da der Mensch anders als ein Computer große Datenmengen am besten grafisch verarbeiten kann, gibt es Software welche die Daten von Git grafisch darstellt.
Eine solche Software ist das Open Source Programm gitk, welches sogar ein offizieller Bestandteil des Git-Projektes ist.

Überblick

Die Software benutzt für die grafische Benutzeroberfläche die Tk Bibliothek und lässt sich daher, wenn auch meist im schlichtem Retrolook, unter fast allen Fenstermanagern benutzen.
Nach dem Starten über den Befehl gitk erscheint ein neues Fenster welches einem erst mal eine Vielzahl von Informationen zu dem Git-Repository liefert.

Quelle - Bildschirmfoto von gitk
Quelle – Bildschirmfoto von gitk

Installation

Um die Software zu installieren, benutzt man den jeweiligen Paketmanager, für apt benutzt man beispielsweise folgenden Befehl, um das Paket gitk zu installieren.
Das Paket ist in den offiziellen Paketquellen von Ubuntu vorhanden.

Pakete:
gitk (main)

sudo apt-get install gitk

Erweiterung

Mit der Installation des Programms git-gui kann man weitere Funktionen bei gitk nutzen.
So wird diese Abhängigkeit z.B. für die git blame Funktionalität benötigt.

Benutzung

Die Software lässt sich sehr einfach bedienen und die Bedienelemente sind meistens selbsterklärend.
So benötigt man für einen schnellen Test nur ein Terminalfenster, ein Git-Projekt sowie gitk.
Zuerst wechselt man mithilfe des Terminals und dem Befehl cd in das Verzeichnis des Projektes.
Darauf folgend verwendet man das Kommando gitk und schon öffnet sich das Fenster in dem der aktive Branch angezeigt wird.

cd GitProjekt
gitk

Möchte man alle Branches angezeigt bekommen so wird das Argument all an den Befehl angehängt.

gitk --all

Infoelemente

Eine grafische Darstellung der einzelnen Versionen wird auf dem ersten Feld, links oben angezeigt.
Rechts daneben befinden sich Informationen zum Absender und Zeitpunkt der Version.
Darunter ist eine Leiste mit Filtermöglichkeiten für die Daten vorzufinden.
Unten findet man linksseitig die Daten der ausgewählten Version und rechts daneben die Beschreibung / Dateiliste.

Einstellmöglichkeiten

Jeder hat einen anderen Geschmack, daher gibt es bei fast jeder Software Möglichkeiten das Aussehen und Verhalten seinen Vorlieben anzupassen.
Grundlegend können die verschiedenen Farben und Schriftarten über Bearbeiten → Einstellungen festgelegt werden.

Quelle - Bildschirmfoto von gitk
Quelle – Bildschirmfoto von gitk

Neue Ansichten

Über den Menüeintrag Ansicht → Neue Ansicht lassen sich die angezeigten Daten nach weiteren Kriterien filtern.
Diese Ansichten können bei Bedarf auch für den späteren Einsatz gespeichert werden.
So lässt sich zum Beispiel eine Ansicht anlegen, die automatisch die Informationen zu den eigenen Änderungen anzeigt.

Fazit

Das seit 2005 existierende Tool gitk ist sehr praktisch und simple aufgebaut.
Es muss nicht immer alles kompliziert und überladen mit unnötigen Funktionen sein, um als gute Software zu gelten.
Gitk zeigt, dass man mit wenig Aufwand einen guten Überblick von seinen Projekten behalten kann.
Eine klare Empfehlung meinerseits für alle die ihre Projekte verwalten wollen.

Mark Mayo ersetzt Johnathan Nightingale als Firefox-Chef

Permalink Sören Hentzschel

Bei Mozilla steht ein wichtiger Führungswechsel an: Johnathan Nightingale wird nächsten Monat sein Amt als Firefox-Chef niederlegen, Nachfolger und Chef der neuen kombinierten Browser- und Cloudsparte wird Mark Mayo.

Johnathan Nightingale verlässt nach acht Jahren Mozilla, um sich eine Auszeit zu nehmen und unter anderem mehr Zeit mit seiner Tochter verbringen zu können, am 31. März ist sein letzter Arbeitstag. Während noch unklar ist, wohin ihn seine Reise führen wird, steht bereits sein Nachfolger fest: Mark Mayo, seit vier Jahren für Mozillas Cloud Services Team tätig.

Mozilla nutzt die Gelegenheit zur Zusammenlegung der Browser- und Cloud Services-Sparte. Die Cloud Services umfassen unter anderem die Firefox Accounts, Firefox Sync, Firefox Hello, den Firefox Marketplace und den Mozilla Location Service.

firefox-chef

19. Februar 2015

Kurztipp: Webcam-Modul beim Systemstart entladen

Permalink blog.mdosch.de - Dies & Das

Ich führe nie Videochats durch und benutze die integrierte Webcam meines Laptops nie. Damit nicht irgendwelche Programme ohne mein Wissen auf die Webcam zugreifen können habe ich nun beschlossen das Modul automatisch beim Systemstart zu entladen. Dazu fügt man folgende Zeile (irgendwo vor exit 0) in die Datei /etc/rc.local ein:

modprobe -r uvcvideo

Ganz paranoide können die Webcam natürlich auch einfach abkleben. ;o)

Kleine Spielerei mit Kommandozeile

Permalink raspitux

Die Kommandozeile kann gerade Neulinge stark einschüchtern, wenn der Weg über eine grafische Oberfläche oftmals nicht mehr möglich ist. Häufig kommt es daher auch vor, dass man einen tollen Befehl aus dem Internet kopiert und diesen dann abschicken will. Erst nach Abschicken des Befehls merkt man, dass man ein kleines aber effektives sudo vergessen hat. Ich habe neulich ein tolles Skript für die Kommandozeile gefunden.

Was es genau macht?
Ganz einfach. Sobald man einen Befehl ohne sudo abgeschickt hat und die Rückmeldung bekommt, dass man keine administrativen Berechtigungen besitzt, gibt der Benutzer sowas wie “doitanyway” ein und bestätigt die Eingabe. Schon wird der vorherige Befehl mit einem sudo versehen und wird nun korrekt ausgeführt. Daher eine kleine Spieleri.

Wie das genau funktioniert beschreibe ich hier:

Zuerst öffnet ihr die .bashrc in eurem Home-Verzeichnis:

nano .bashrc

Nun fügt ihr am Ende dieser Datei folgenden Code ein:

doitanyway ()
{
    set : `history 2 | head -1`;
    shift;
    shift;
    sudo /bin/sh -c "$*"
}

Ihr könnt natürlich den Befehl auch umbenennen in etwas aussagekräftigeres.
Jetzt abspeichern mit STRG+O und beenden mit STRG+X

Nun müssen die Änderungen an der .bashrc eingelesen werden mit:

source .bashrc

Jetzt dürft ihr mal das Ergebnis ausprobieren.
Bei mir schaut das so aus ;-)

doitanyway

Wie habt ihr euer Befehl nun genannt? Bin gespannt auf Eure Antworten

18. Februar 2015

Akiee 0.0.2

Permalink Rockiger

Als Erstes starte ich mit einem Bild. Oder, ladet euch die neueste Version einfach runter und seht selbst.

Akiee Version 0.0.2 mit Kanban-Board

Akiee ist schneller geworden und es sind einige Funktionen dazugekommen. Zusätzlich gab es noch ein paar Optimierungen.

Was ist neu?

  • Es gibt jetzt eine Suche, mit der man die aktuelle Ansicht filtern kann.
  • Die All-Ansicht wurde in Board umbenannt und entspricht jetzt einem einfachen Kanban-Board (siehe Screenshot). Mit dem Board kann man sich wunderbar einen Überblick über alle Task verschaffen und so besser priorisieren und planen.
  • In den einzelnen Tasks wird jetzt angezeigt, zu welchem Projekt sie gehören. Projekte sind im Editor nichts anderes als Überschriften erster Ordnung (#), die ihr ganz einfach hinzufügen könnt.
  • Der Willkommensbildschirm ist jetzt weniger verspielt, sondern erklärt Einsteigern ganz nüchtern, wie sie mit Akiee starten können.
  • Das Button-Layout wurde überarbeitet, der Editor hat ein Icon bekommen und ist jetzt nicht mehr auf einer Ebene mit dem Ansichten, sondern wurde zu den Funktionen auf die rechte Seite verschoben. Das ist aus meiner Sicht sinnvoller.
  • Die Startzeit wurde verringert, indem die Unit-Tests in der Produktivversion rausgenommen wurden.
  • Die Datenstrukturen und die Speicherung wurden refactored.
  • Mittlerweile werden auch Deadlines angezeigt; eingeben kann man sie allerdings nur, indem sie mit dem DEADLINE-Keyword im Editor eingibt: DEADLINE: <2013-8-24> einfach unter die Überschrift eines Tasks schreiben und die Deadline wird angezeigt.
  • Es gibt jetzt ein Waffle-Board zu Akiee, mit dem User-Storys geplant werden. Dort kann man sich die Reihenfolge der Features anschauen. Wenn ihr Featurewünsche habt, könnt ihr auf Github einen neue Issue anlegen oder kommentieren - ich freue mich über jede Anregung.

Was ist geplant?

Für die nächsten Versionen sind folgende Features geplant:

  • Umstieg auf Clojurescript und React, um nicht mehr mit Javascript arbeiten zu müssen.
  • Drag & Drop-Support, damit man effektiver die Reihenfolge der Aufgaben ändern kann.
  • Eine bessere Integration in die einzelnen Betriebssysteme, damit der Eindruck einer nativen App entsteht. Webei Gnome das wichtigste Zielsystem ist.
  • Die Done-Spalte soll nicht mehr nach RANK geordnet sein, damit man sehen kann, was man als letztes erledigt hat.
  • Eine Detailansicht der einzelnen Aufgaben, damit man Task auch ohne Markdown-Kenntnisse editieren kann.
  • Synchronisation mit Dropbox oder Ähnlichem
  • Notizenfunktion, weil Aufgaben und Notizen eng zusammenhängen.
  • Eine mobile Version
  • Ein Plugin-System
  • Pakete für Arch und Ubuntu

Weitere Features findet ihr auf dem Waffle-Board zu Akiee. Ich freue mich auf eure Kommentare und Anregungen.

Installation

Wer jetzt Lust bekommen hat Akiee auszuprobieren, findet hier den Akiee-Download.

Einfach das Archiv entpacken und entweder auf akiee (Linux) oder Akiee (Mac/Windows) klicken. Linux-Nutzer müssen eventuell noch festlegen, dass Skripte vom Dateimanager gestartet werden und nicht im Text-Editor geöffnet werden.

Nautilus configuration

Akiee ist in der Version 0.0.2; es ist das zweite Beta-Release. Ich selbst benutze Akiee aber schon seit einigen Monaten und würde mich freuen, wenn ihr eine Testfahrt mit Akiee macht.

17. Februar 2015

Firefox 38 zeigt an, wenn Add-ons den Browser verlangsamen

Permalink Sören Hentzschel

Firefox lässt sich durch Add-ons praktisch beliebig erweitern, natürlich können Add-ons dabei auch einen negativen Einfluss auf die Performance haben. Ab Version 38 zeigt Firefox dem Nutzer eine Warnung an, wenn ein bestimmtes Add-on die Leistung von Firefox beeinträchtigt.

Ab Firefox 38 zeigt der Mozilla-Browser am unteren Fensterrand eine Hinweisleiste an, wenn ein Add-on die Performance von Firefox negativ beeinträchtigt. Dem Nutzer werden dabei drei Optionen angeboten: das Add-on zu deaktivieren, die Warnung voerst zu ignorieren, um später erneut benachrichrigt zu werden, oder die Warnung dauerhaft zu ignorieren.

phpLiteAdmin unter Raspberry Pi / Linux nutzen

Permalink raspitux

Anwender die auf dem Raspberry Pi eine Sqlite3 Datenbank nutzen, können mit dieser Anleitung eine bequeme Möglichkeit finden, die Datenbankinhalte über den Browser einzusehen. Dies kann gerade in Debuggingfällen manchmal sehr hilfreich sein. Ich denke es gibt genügend Einsatzmöglichkeiten für dieses schicke Webtool, welches später auf Eurem Raspberry Pi laufen soll.

Ich setze in dieser Anleitung voraus, dass bereits Php, Webserver-, und Sqlite Komponenten installiert sind.
Zuerst schalten wir uns mittels ssh direkt auf den Raspberry Pi ein. Alternativ geht auch natürlich das Terminal über die grafische Benutzeroberfläche am Raspberry Pi zu öffnen. Nachdem wir nun eine bestehende Terminalverbindung aufgebaut haben, gehen wir nun wie folgt vor.
Das Skript welches wir nutzen heißt phpLiteAdmin und kann auf der Projektseite heruntergeladen werden. Zudem sind dort einige Sprachpakete und Screenshots vorhanden. Mit Hilfe des Terminals wollen wir nun die aktuelle Skriptdatei auf unserem Raspberry Pi herunterladen und im /var/www/admin Verzeichnis speichern.

cd /var/www
mkdir admin
cd admin
wget https://phpliteadmin.googlecode.com/files/phpliteAdmin_v1-9-5.zip
unzip phpliteAdmin_v1-9-5.zip

Mit diesen Befehlen haben wir nun ein Ordner admin erstellt und die Skriptdateien heruntergeladen und entpackt.
Nun müssen wir die mitgelieferte Konfigurationsvorlage umbenennen:

sudo cp phpliteadmin.config.sample.php phpliteadmin.config.php

Als nächstes wollen wir die Konfigurationsdatei modifizieren:

sudo nano phpliteadmin.config.php

Wir müssen nun z.B. ein individuelle Passwort für den Loginbereich vergeben:

$password = 'EuerPasswort';
$directory = 'AbsoluterPfadZurDBDatei';

Abschließend vergeben wir noch die Zugriffsrechte von Dateien und Verzeichnissen mittels folgenden Befehlen

sudo chmod 755 php*
cd ..
sudo chmod 755 admin

Das sollte alles schon gewesen sein. Wir testen unser Ergebnis und geben in einem Browser die IpP-Adresse des Raspberrys ein + /admin
Also z.B. 192.168.1.12/admin
Wenn Ihr alles richtig gemacht habt, dann könnt Ihr euch nun auf das Adminpanel einloggen und Eure Datensätze einsehen und ggf. modifizieren.

Ubuntu Server auf einem Linutop 2 installieren

Permalink Invictus deus ex machina

Bei Linutop handelt es sich um eine Reihe von Kleinstrechnern. Der Linutop 2 ist dabei Baujahr 2008, besitzt einen AMD Geode LX800, welcher mit 800 Mhz getaktet ist. Daneben befindet sich in dem Gerät 512 MiB Arbeitsspeicher. Auf einem solchen Gerät wollte ich nun Ubuntu in der Servervariante installieren. Als Version kommt dabei nur die 12.04 LTS, welche bis April 2017 unterstützt wird, in Frage.

Der Grund hierfür ist das der AMD Geode LX800 kein PAE unterstützt, neue Ubuntu-Versionen dieses aber zwingend voraussetzen. Im ersten Schritt muss die Netboot-Variante (non-pae) heruntergeladen werden. Die mini.iso kann dann mit Tools wie UNetbootin auf einem USB Stick gespielt werden.

Ein Linutop 2

Ein Linutop 2

In diesem Fall wird das System von und auf diesem USB-Stick installiert. Der Grund dafür ist der 1 Gigabyte große Flashspeicher welcher nicht ausreicht um das System zu installieren. In der Standardkonfiguration weist Ubuntu der Systempartionen 512 MB und der Swap-Partion ebenfalls 512 MB zu. Wenn man der Systempartion die gesamten 1000 Megabyte zuweist, sollte sich der Ubuntu Server auch auf dem internen Flashspeicher installieren lassen, allerdings verfügt man dann nur noch über knapp 100 Megabyte freien Speicher.

Wenn man bei der Installation stattdessen das ganze auf einem angeschlossenen USB Stick installiert, sollte auch genug Platz für andere Aufgaben da sein. Die 1 Gigabyte große Flashdisk, kann dabei als Swapspeicher genutzt werden. Für die Installation muss der Linotop ans Netz angeschlossen sein. Nachdem man die grundlegenden Einstellungen vorgenommen hat, dauert die Installation zirka 60 bis 90 Minuten. Anschließend kann das System genutzt werden.

16. Februar 2015

Fragen und Antworten zu Ubuntu Phone

Permalink svij | Blog

Am 5. Februar hatte ich in einem Artikel meinen Besuch beim „Ubuntu Phone Insider Launch Event“ angekündigt. Dort habe ich angeboten, dass ich offene Fragen zu Ubuntu Phone und zu dem bq Aquaris E4.5 beantworte. Einige E-Mails mit Fragen sind vor und auch kurz nach dem Event eingetroffen. Zeit sie zu beantworten hatte ich bislang nicht sonderlich, weshalb ich es hier mal tue.

Ist es möglich, Ubuntu Phone auf dem bq Aquaris E6 zu Installieren?

Nein, zumindest nicht offiziell. Der Hersteller bq hat gegenüber OMG! Ubuntu! bestätigt, dass sie keine Pläne für weitere Ubuntu Phones haben.

Erscheint ein Ubuntu Phone mit einem Display, welches größer ist als 4,5 Zoll?

Ja, das Meizu MX4 wird mit (u.a.) mit Ubuntu ausgeliefert. Siehe auch das Interview mit Cristian Parrino. Erscheint März oder April.

Lässt sich der Akku vom bq tauschen?

Nein, dieser ist wie bei vielen anderen aktuellen Smartphones fest-verbaut. Ausnahmen betätigen die Regel.

Kann ich kontrollieren und/oder begrenzen, ob bzw. welche Daten eine App versendet? Und an wen? Bzw. mir Beispiel-Datensätze anzeigen lassen?

Das ist leider nicht möglich.

Läuft das GPS unabhängig von WLAN- oder Mobilfunkzellen?

Es lässt sich in den Einstellungen die "Standortbestimmung" und "GPS" einzeln aktivieren. Es scheint also für mich kein großer Unterschied zu den anderen mobilen Betriebssystemen bezüglich A-GPS zu herrschen.

Kann man das Gerät dann in Castrop-Rauxel mal besichtigen?

Natürlich. :-)

Kommt Meizu und LeTV auch nach Europa?

Meizu: ja. Von LeTV hab ich bis jetzt noch gar nichts gehört.

Ist es gerootet oder einfach rootbar, um apt-get nutzen zu können?

Man kann den Modus „umschalten“ sodass man apt-get nutzen kann. Empfohlen wird das allerdings nicht, da man dann keine System-Updates erhält, da diese Image-basiert ausgeliefert werden.

Wird das BQ mit neu geflashten Versionen später auch als PC am Bildschirm benutzbar sein?

Nein.

Gibt es eine Möglichkeit ein Hotspot zu erstellen?

Nein, auch das gibt es leider nicht.

Wie will eine offene Navi-Software ernsthaft mit Google Maps konkurrieren?

Diese Frage lässt sich eher schwierig beantworten. HERE Maps ist vorinstalliert, bietet allerdings zum jetzigen Zeitpunkt keine Turn-by-Turn Navigation.

Wie kontaktiere ich meine WhatsApp-Freunde ohne Client?

Garnicht. Einen WhatsApp Client gibt es zur Zeit nicht. Stattdessen ist der Messenger Telegram verfügbar.

Wird Ubuntu den Weg von Tizen gehen und eine Möglichkeit anbieten, Android-Apps zu nutzen, oder muss auf all die bekannteren und unbekannteren Apps der Android-Welt verzichtet und darauf gehofft werden, dass gute Alternativen entwickelt werden?

Eine Unterstützung von Android Apps ist nicht vorhanden und wird auch nicht kommen.

Warum werden die Ubuntu Phones nicht normal über den Store verkauft?

Meine Meinung: Marketing. Durch häufigere Flash-Sales bleibt Ubuntu Phone häufiger im Gespräch, als wenn es „leise“ in den Verkauf geht. Natürlich mit allen Vor- und Nachteilen die ein Flash-Sale mit sich bringt. bq hat auf Twitter beantwortet, dass es eine Entscheidung von Canonical sei, auch wenn bq die Geräte selbst verkauft.

Wird es später auch das E5 mit Ubuntu geben?

Nein, siehe oben.

Könnte man ein E4.5 kaufen und Ubuntu selbst installieren?

Ja, bq hat angekündigt Images bereitzustellen.

Im SDK hatte ich keinen E-Mail-Client gefunden, ist einer installiert?

Nein. Es gibt allerdings die E-Mail App „Dekko“, die noch in Beta ist und noch eingeschränkte Funktionen hat. So kann man nur den Posteingang abrufen, allerdings keine anderen Ordner im IMAP-Konto. Daneben gibt es noch einige Stabilitätsprobleme.

Das waren alle Fragen die ich bekam. Einige habe ich ausgelassen, wenn ich sie etwa nicht beantworten konnte. Darunter waren zwei/drei technische Fragen.

Video Hands on bq Aquaris E4.5 Ubuntu Edition

Permalink svij | Blog

Nach knapp über eine Woche im Besitz des „bq Aquaris E4.5 Ubuntu Edition“, also des ersten Ubuntu Phones, habe ich gestern ein kleines „Hands on“ Video aufgenommen. In knapp 17,5 Minuten gebe ich dort einen Überblick in den Aufbau der graphischen Oberfläche und die Gesten. Darunter auch ein genauer Blick auf die Scopes die im Standard aktiviert sind. Ich konnte natürlich nicht alle Einzelheiten abdecken in dem Video, denn sonst wäre es vorallem zu lang geworden.

Ich denke, die meisten werden davon einen guten Einblick in das System bekommen, wie es läuft, wie es funktioniert und wie die gängige Nutzung ausschaut. Das Video habe ich hier auf YouTube hochgeladen.

Ein erster ausführlicher Test-Bericht folgt im Laufe dieser Woche.