ubuntuusers.de

16. August 2013

Wie ich hier bereits erwähnte nutze ich die plattformunabhängige OpenSource-Kombination Jameica/Hibiscus um Online-Banking unter Linux zu betreiben.

Der Entwickler von Jameica/Hibiscus bittet in seinem Blog bzw. auf der HBCI4Java-Mailingliste um Unterstützung bei der Implementierung von SEPA-Lastschriften in HBCI4Java.

Hier der Beitrag von der ML:

Hi zusammen,

ich gehe davon aus, dass hier auch der ein oder andere Entwickler aus Unternehmen mitliest, welche HBCI4Java im geschaeftlichen Umfeld nutzen. Und ich weiss, dass das Thema SEPA (hier insb. die SEPA-Lastschrift) gerade Unternehmen unter den Naegeln brennt, weil es ab naechstem Jahr Ernst wird.

Allerdings kriege ich bisher immer nur Anfragen von Firmen oder Vereinen, ob SEPA-Lastschrift auf meiner TODO-Liste steht. Und wenn ja, wie lange es noch dauert. Ich kriege aber keine Mails von Entwicklern aus Firmen, die mir schreiben, dass sie bereits begonnen haben, das in HBCI4Java einzubauen.

Bisher habe ich auf die Frage nach der SEPA-Unterstuetzung immer geantwortet, dass das bei mir auf Platz 1 der Agenda steht und mein Ziel ist, es bis Ende des Jahres eingebaut zu haben. Mich beschleicht daher der Verdacht, dass sich hier einige Unternehmen in ihrer Komfort-Zone bequem machen und warten, bis ich diese Arbeit uebernommen habe. Ich mache Hibiscus in meiner Freizeit und pflege HBCI4Java so gut es geht weiter. Gerade aktuell hab ich z.Bsp. endlich den PCSC-Support zum Laufen gekriegt. Die Unterstuetzung fuer die neuen TAN-Verfahren (incl. dem komplizierten chipTAN) habe ich auch eingebaut.

Falls hier also Entwickler von Unternehmen mitlesen, die selbst ebenfalls HBCI4Java (oder auch Hibiscus) geschaeftlich verwenden, dann faende ich etwas Initiative auch von eurer Seite gut. Denn ich mache Hibiscus & Co. nur privat.
Ich selbst brauche die SEPA-Lastschrift also gar nicht. Und ich will eigentlich auch nicht der Gratis-Entwickler fuer Unternehmen sein. Und nein, mit geht es nicht um Bezahlung. Mir geht es darum, nicht der Einzige zu sein, der fuer HBCI4Java Code liefert.

Gruss
Olaf

Da ich selbst nur etwas C-Programmierung beherrsche kann ich leider nichts beitragen, aber ich verbreite das Gesuch mal in meinem Blog und hoffe, dass evtl. jemand mit den nötigen Kenntnissen darauf aufmerksam wird. Da mein Blog auch im debianforum.de-Planet gelistet ist, erreicht der Beitrag bestimmt einige kompetente Programmierer.

Nachtrag: Am 13.10.2013 schrieb Olaf Willuhn in seinem Blog, dass nun erster Code für SEPA-Lastschriften in den nightlies verfügbar ist.

15. August 2013

Mozilla arbeitet unter dem Codenamen Talkilla an einem Projekt, um Echtzeitkommunikation mittels WebRTC in den Browser zu bringen. Eine neue Präsentation verrät weitere Details zum Funktionsumfang von Talkilla.

Vor gut zwei Monaten gab es die ersten Informationen zu Talkilla von Mozilla, letzten Monat folgten erste Informationen zum Zeitplan und zu Partnern, mit welchen Mozilla zusammenarbeitet. Eine neue Präsentation verrät weitere Details zum Projekt, welche ein besseres Verständnis dafür geben, wie Talkilla für Nutzer funktioniert.

In der Präsentation von Firefox User Experience Designerin Jennifer Morrow wird Talkilla als Projekt beschrieben, welches Nutzern ermöglichen soll, quer durch das Web zu kommunizieren. Bislang sei der Nutzen von WebRTC auf spezifische Webseiten und Anwendungen beschränkt. Eine Grenze, welche Mozilla offenbar durchbrechen möchte. Talkilla funktioniert dabei ohne Benutzerkonten oder Logins.

Eine Folie der Präsentation zeigt die Oberfläche von Firefox mit einem speziellen Button. Per Klick auf diesen kann die Art der Kommunikation festgelegt werden, beispielsweise Video-Chat oder das Teilen des Bildschirms. Es wird eine einmalige temporäre URL generiert, welche anschließend geteilt werden kann, zum Beispiel per E-Mail. Ruft ein anderer Nutzer diesen Link auf, werden beide Nutzer miteinander verbunden, ohne dass sich einer von beiden irgendwo anmelden muss.

Allerdings können sich Nutzer ein Benutzerkonto anlegen, falls sie öfter Talkilla nutzen. Auf diese Weise können sie eine Kontaktliste pflegen und direkt mit anderen Nutzern kommunizieren, ohne zuvor Links verschicken zu müssen, und auch einen Online-Status setzen, wie man es von klassischen Messengern kennt.

Eine weitere Folie zeigt außerdem eine Einstellungs-Seite von Talkilla, konkret zu Providern. Wie bereits im letzten Artikel zu Talkilla erwähnt, arbeitet Mozilla mit verschiedenen Anbietern zusammen, um weitere Dienste zur Verfügung stellen zu können. So wird als Beispiel angeführt, den Mobilfunkanbieter hinzuzufügen, um so über Talkilla Telefonate im Browser entgegennehmen zu können. In diesen Zusammenhang passt auch, dass Verizon hier als Provider zu erkennen ist. Weitere Provider und Beschreibungen, welche auf der Folie zu erkennen sind, sind Facebook (Chat mit den Facebook-Kontakten), Netflix (gemeinsam online Filme ansehen) und Skype (Kontakte aus Skype importieren).

Andere Einstellungsbildschirme werden in der Präsentation nicht gezeigt, die Navigation deutet aber weitere Einstellungsseiten für das Talkilla-Benutzerkonto, Datenschutz, Kontakte sowie Chat, Video & Audio an.

rsync mit Festplatten, oder auch remote auf einen Server, wird im Wiki von Ubuntuusers.de gut beschrieben, mit Bespielskripten und vielen nützlichen Tipps.

Da ich viel mit dem Laptop unterwegs bin und mir auch schonmal die Laptopfestplatte unterwegs abgeraucht ist halte ich ein Backup der wichtigsten Daten unterwegs auf einer Externen USB Festplatte bereit. Die Daten auf meiner USB Festplatte sind via Truecrypt verschlüsselt, falls diese auf Reisen abhanden kommt. Ich weiss, es gibt natürlich auch cloud (mycloud etc.) aber es sind teilweise auch große VMs dabei mit ca. 80 GB welche ich für Kurse benötige. </div>
                <div class= Permalink

Durch die aktuellen Enthüllungen ist das Thema Verschlüsselung in aller Munde, es gibt also einen Teil der Menschen der gerne Daten verschlüsseln möchte. Das ist eine gute Entwicklung, und wir organisieren dafür Cryptoparties.

An diesen Cryptoparties stellen wir aber vor allem fest das die breite Masse der Anwender an unserer komplexen und für Laien kaum nachvollziehbaren Technik scheitert oder schon vor dem Ende der Erklärung das weite sucht. Ich selbst durfte mittlerweile auf 3 Cryptoparties komplexe Dinge wie asymmetrische Verschlüsselung erklären und war erstaunt wie schwer es ist einem Laien dieses Thema so zu erklären das er es auch versteht und vor allem Anwenden kann.

So lange wir also Technik verwenden die normale Menschen nicht verstehen werden diese die Technik auch kaum verwenden, und unsere ganzen Ansätze zur Verschlüsselung scheitern schlicht daran das niemand diese nutzt. Daher habe ich mir ein paar Gedanken zu diesem Thema gemacht, vor allem wie man das theoretisch gute GPG in eine Form bringen kann die Laien nutzen können.

Das Resultat, meine Gedanken, angereichert um etwas Informationen und Impulse aus dem IRC habe ich nachfolgend niedergeschrieben. Es handelt sich dabei um Grundlagen die noch nicht in Form einer Software existieren, aber meiner Meinung nach viele der bisher bestehenden Probleme für Laien sinnvoll lösen. Auf die Idee gebracht wurde ich von der Software Threema welche das Public Key Verfahren sinnvoll für Instant Messaging auf dem Smartphone umsetzt.

Grundlagen

Schlüsselpaar

Zuerst benötigen wir ein Schlüsselpaar da wir asymmetrische Verschlüsselung verwenden möchten. Hier fangen wir schon damit an Dinge welche wir aus GPG kennen zu streichen: Es gibt keine Subkeys, keine Trust-DB und auch sonst viele Dinge die GPG etwas "speziell" machen streichen wir Ersatzlos. Es gibt auch nicht die Möglichkeit mehrere User-IDs für einen Key zu verwenden, jede Mailadresse bekommt also ihren eigenen Key.

Was wir auch komplett Streichen sind die verschiedenen Trust-Level welche GPG kennt, und auch auf verschiedene Signaturtypen verzichten wir der Einfachheit halber. Was übrig bleibt ist ein Schlüsselpaar das außer meiner Mailadresse und meinem Namen keine weiteren Informationen enthält.

Keyserver

Es gibt aber auch bei GPG Dinge die wirklich gut sind, und dazu gehören die Keyserver welche wir gerne (in einfacherer Form) benutzen sollten um Transparent zu zeigen welche Keys es gibt und Modifikationen am Web of Trust sichtbar zu machen. Der Abgleich mit dem Keyserver erfolgt automatisch in einem bestimmten Intervall (z.b. einmal wöchentlich) und ist bidirektional, der Grundsatz das nur Informationen hinzugefügt aber nicht verändert oder gelöscht werden können bleibt erhalten um Manipulationen zu verhindern.

Wir haben jetzt also die nötigen Schlüssel und auch der Austausch der Schlüssel über die guten alten Keyserver ist geregelt. Es fehlen ein paar Funktionen welche wir früher bei GPG kannten, aber nichts großes was wir vermissen würden.

Web of Trust

Vertrauen

Eines der ursprünglichen Ideen von GPG ist es ein sog. Web of Trust zu etablieren, also ein Netzwerk aus Schlüsseln die sich gegenseitig mehr oder weniger vertrauen. Das ganze ist wirklich ein guter Ansatz, aber die Vielzahl an Optionen erschlägt normale Menschen. Hier setze ich bei meinem Konzept auf ein wesentlich einfacheres Verfahren und auf einen Usability Trick aus der Zauberkiste.

Da wir (siehe weiter oben) keine Trust-Level mehr haben benötigen wir auch etwas ähnliches um den Zusammenhang zwischen Schlüsseln und damit deren Benutzern darstellen zu können. Ich habe mich hier für einen Wert entschieden den jeder Schlüssel hat, der aber automatisch berechnet wird.

Das ganze funktioniert wie folgt, jeder Schlüssel für den ich einen privaten Schlüssel im Schlüsselbund habe hat 256 Punkte. 256 Punkte bedeutet automatisch auch das ich einem Schlüssel zu 100% vertraue.

Der nächste Schritt ist das ich jemanden signiere, also bestätige. Auch diese Person bekommt 256 Punkte und damit 100% vertrauen. Bestätigt diese Person jetzt eine weitere Person die ich nicht selbst signiert/bestätigt habe, dann bekommt diese Person 128 Punkte (50% Vertrauen). Mit jeder Stufe die man weiter von mir weg ist halbiert sich dieses vertrauen, die nächste Stufe an Personen die ich indirekt kenne bekommt also 64 Punkte (25% Vertrauen) und das ganze geht dann über maximal 8 Stufen (weniger als 1% Vertrauen).

Bestätigen/Signieren 2 Personen denen ich selbst vertraue eine weitere Person hat diese auch 100% vertrauen (256 als Wert, oder eben 2x128 da jede Person ja nur die Hälfte ihrer eigenen Punkte weitergibt). Konkret bedeutet das auch das je weiter eine Person von mir aus entfernt ist, diese auch mehr Unterschriften von Menschen benötigt denen ich direkt oder indirekt ebenfalls vertraue. Das Gesamtsystem ist also nicht endlos (wie bisher irgendwie) sondern hat eine natürliche Begrenzung die ungefähr den Personen entspricht mit denen ich Wahrscheinlich zu tun haben werde.

Dieses neue und automatische Web of Trust wird nur bei mir lokal Berechnet, ich kann auch nicht nur einen Teil des Vertrauens weiterleiten und alles passiert nachvollziehbar automatisch. Der Usability Trick besteht jetzt darin dem Anwender einen Ladebalken (0-100%) anzuzeigen an dem er sieht wie Vertrauenswürdig eine bestimmte Person ist.

Deadline

Ein weiteres Problem bei normalen Anwendern ist die große Chance sich ein Passwort nicht zu merken oder aber keine Backups zu machen. Die Schlüssel werden also mit einer Deadline erstellt. Jeder neu erzeugte Schlüssel gilt für den Zeitraum von z.B. einem Jahr. Anschließend ist der Schlüssel automatisch tot und nicht mehr gültig. Das bedeutet ich muss mich nicht selbst um verlorene Schlüssel kümmern da diese unveränderlich nur eine begrenzte Gültigkeit haben.

Usability

Wir haben jetzt Schlüssel und auch ein relativ einfaches Modell eines Web-of-Trust, jetzt kommen noch ein paar Anforderungen an die Usability.

Den automatischen Abgleich mit dem Keyserver habe ich weiter oben schon angesprochen, was aber auch wichtig ist wäre der Punkt das jeder Signatur (z.b. an einer Mail) automatisch auch der öffentliche Schlüssel beiliegt. So kann auch wenn die Keyserver nicht erreichbar sind (kaputte Firewalls, restriktive Firmen) die Signatur einer Mail geprüft und verschlüsselt geantwortet werden.

Ein weiterer ebenfalls sehr wichtiger Punkt ist das Keysigning, heute drucken wir komplizierte Zettel aus die ein normaler Anwender nicht versteht. Um Verschlüsselung auch für Menschen nutzbar zu machen die keine Techniker sind sollten wir uns an Threema orientieren. Die Anwendung muss also in der Lage sein QR-Codes zu erzeugen und fertige Druckfunktionen für die eigenen Keys gehören auch dazu.

Noch eine Anforderung ist das die Anwendung als Standard sowohl auf der Konsole als auch grafisch die gleichen Funktionen bereitstellt und über eing gute API verfügt. Wer die aktuellen Frontends für GPG kennt versteht was ich meine.

Dies Schlüssel und weiter Dinge liegen im einfachsten Fall in einer Datei vor die man einfach auf andere Geräte (Smartphone, Pads, …) mitnehmen kann.

Fazit

Das war es, also meine Theorie für das Problem das einfache / unerfahrene Anwender nicht verstehen was GPG tut. Selbst Leute von denen ich erwartet hätte GPG zu verstehen konnten mit im IRC nichtmal die Grundfunktionen erläutern. GPG ist ein schönes Tool, scheitert aber an der realen Welt kläglich was auch erklärt warum dieses gute Tool so wenig Verbreitung hat.

Durch die aktuellen Enthüllungen ist das Thema Verschlüsselung in aller Munde, es gibt also einen Teil der Menschen der gerne Daten verschlüsseln möchte. Das ist eine gute Entwicklung, und wir organisieren dafür Cryptoparties.

An diesen Cryptoparties stellen wir aber vor allem fest das die breite Masse der Anwender an unserer komplexen und für Laien kaum nachvollziehbaren Technik scheitert oder schon vor dem Ende der Erklärung das weite sucht. Ich selbst durfte mittlerweile auf 3 Cryptoparties komplexe Dinge wie asymmetrische Verschlüsselung erklären und war erstaunt wie schwer es ist einem Laien dieses Thema so zu erklären das er es auch versteht und vor allem Anwenden kann.

So lange wir also Technik verwenden die normale Menschen nicht verstehen werden diese die Technik auch kaum verwenden, und unsere ganzen Ansätze zur Verschlüsselung scheitern schlicht daran das niemand diese nutzt. Daher habe ich mir ein paar Gedanken zu diesem Thema gemacht, vor allem wie man das theoretisch gute GPG in eine Form bringen kann die Laien nutzen können.

Das Resultat, meine Gedanken, angereichert um etwas Informationen und Impulse aus dem IRC habe ich nachfolgend niedergeschrieben. Es handelt sich dabei um Grundlagen die noch nicht in Form einer Software existieren, aber meiner Meinung nach viele der bisher bestehenden Probleme für Laien sinnvoll lösen. Auf die Idee gebracht wurde ich von der Software Threema welche das Public Key Verfahren sinnvoll für Instant Messaging auf dem Smartphone umsetzt.

Grundlagen

Schlüsselpaar

Zuerst benötigen wir ein Schlüsselpaar da wir asymmetrische Verschlüsselung verwenden möchten. Hier fangen wir schon damit an Dinge welche wir aus GPG kennen zu streichen: Es gibt keine Subkeys, keine Trust-DB und auch sonst viele Dinge die GPG etwas "speziell" machen streichen wir Ersatzlos. Es gibt auch nicht die Möglichkeit mehrere User-IDs für einen Key zu verwenden, jede Mailadresse bekommt also ihren eigenen Key.

Was wir auch komplett Streichen sind die verschiedenen Trust-Level welche GPG kennt, und auch auf verschiedene Signaturtypen verzichten wir der Einfachheit halber. Was übrig bleibt ist ein Schlüsselpaar das außer meiner Mailadresse und meinem Namen keine weiteren Informationen enthält.

Keyserver

Es gibt aber auch bei GPG Dinge die wirklich gut sind, und dazu gehören die Keyserver welche wir gerne (in einfacherer Form) benutzen sollten um Transparent zu zeigen welche Keys es gibt und Modifikationen am Web of Trust sichtbar zu machen. Der Abgleich mit dem Keyserver erfolgt automatisch in einem bestimmten Intervall (z.b. einmal wöchentlich) und ist bidirektional, der Grundsatz das nur Informationen hinzugefügt aber nicht verändert oder gelöscht werden können bleibt erhalten um Manipulationen zu verhindern.

Wir haben jetzt also die nötigen Schlüssel und auch der Austausch der Schlüssel über die guten alten Keyserver ist geregelt. Es fehlen ein paar Funktionen welche wir früher bei GPG kannten, aber nichts großes was wir vermissen würden.

Web of Trust

Vertrauen

Eines der ursprünglichen Ideen von GPG ist es ein sog. Web of Trust zu etablieren, also ein Netzwerk aus Schlüsseln die sich gegenseitig mehr oder weniger vertrauen. Das ganze ist wirklich ein guter Ansatz, aber die Vielzahl an Optionen erschlägt normale Menschen. Hier setze ich bei meinem Konzept auf ein wesentlich einfacheres Verfahren und auf einen Usability Trick aus der Zauberkiste.

Da wir (siehe weiter oben) keine Trust-Level mehr haben benötigen wir auch etwas ähnliches um den Zusammenhang zwischen Schlüsseln und damit deren Benutzern darstellen zu können. Ich habe mich hier für einen Wert entschieden den jeder Schlüssel hat, der aber automatisch berechnet wird.

Das ganze funktioniert wie folgt, jeder Schlüssel für den ich einen privaten Schlüssel im Schlüsselbund habe hat 256 Punkte. 256 Punkte bedeutet automatisch auch das ich einem Schlüssel zu 100% vertraue.

Der nächste Schritt ist das ich jemanden signiere, also bestätige. Auch diese Person bekommt 256 Punkte und damit 100% vertrauen. Bestätigt diese Person jetzt eine weitere Person die ich nicht selbst signiert/bestätigt habe, dann bekommt diese Person 128 Punkte (50% Vertrauen). Mit jeder Stufe die man weiter von mir weg ist halbiert sich dieses vertrauen, die nächste Stufe an Personen die ich indirekt kenne bekommt also 64 Punkte (25% Vertrauen) und das ganze geht dann über maximal 8 Stufen (weniger als 1% Vertrauen).

Bestätigen/Signieren 2 Personen denen ich selbst vertraue eine weitere Person hat diese auch 100% vertrauen (256 als Wert, oder eben 2x128 da jede Person ja nur die Hälfte ihrer eigenen Punkte weitergibt). Konkret bedeutet das auch das je weiter eine Person von mir aus entfernt ist, diese auch mehr Unterschriften von Menschen benötigt denen ich direkt oder indirekt ebenfalls vertraue. Das Gesamtsystem ist also nicht endlos (wie bisher irgendwie) sondern hat eine natürliche Begrenzung die ungefähr den Personen entspricht mit denen ich Wahrscheinlich zu tun haben werde.

Dieses neue und automatische Web of Trust wird nur bei mir lokal Berechnet, ich kann auch nicht nur einen Teil des Vertrauens weiterleiten und alles passiert nachvollziehbar automatisch. Der Usability Trick besteht jetzt darin dem Anwender einen Ladebalken (0-100%) anzuzeigen an dem er sieht wie Vertrauenswürdig eine bestimmte Person ist.

Deadline

Ein weiteres Problem bei normalen Anwendern ist die große Chance sich ein Passwort nicht zu merken oder aber keine Backups zu machen. Die Schlüssel werden also mit einer Deadline erstellt. Jeder neu erzeugte Schlüssel gilt für den Zeitraum von z.B. einem Jahr. Anschließend ist der Schlüssel automatisch tot und nicht mehr gültig. Das bedeutet ich muss mich nicht selbst um verlorene Schlüssel kümmern da diese unveränderlich nur eine begrenzte Gültigkeit haben.

Usability

Wir haben jetzt Schlüssel und auch ein relativ einfaches Modell eines Web-of-Trust, jetzt kommen noch ein paar Anforderungen an die Usability.

Den automatischen Abgleich mit dem Keyserver habe ich weiter oben schon angesprochen, was aber auch wichtig ist wäre der Punkt das jeder Signatur (z.b. an einer Mail) automatisch auch der öffentliche Schlüssel beiliegt. So kann auch wenn die Keyserver nicht erreichbar sind (kaputte Firewalls, restriktive Firmen) die Signatur einer Mail geprüft und verschlüsselt geantwortet werden.

Ein weiterer ebenfalls sehr wichtiger Punkt ist das Keysigning, heute drucken wir komplizierte Zettel aus die ein normaler Anwender nicht versteht. Um Verschlüsselung auch für Menschen nutzbar zu machen die keine Techniker sind sollten wir uns an Threema orientieren. Die Anwendung muss also in der Lage sein QR-Codes zu erzeugen und fertige Druckfunktionen für die eigenen Keys gehören auch dazu.

Noch eine Anforderung ist das die Anwendung als Standard sowohl auf der Konsole als auch grafisch die gleichen Funktionen bereitstellt und über eing gute API verfügt. Wer die aktuellen Frontends für GPG kennt versteht was ich meine.

Dies Schlüssel und weiter Dinge liegen im einfachsten Fall in einer Datei vor die man einfach auf andere Geräte (Smartphone, Pads, …) mitnehmen kann.

Fazit

Das war es, also meine Theorie für das Problem das einfache / unerfahrene Anwender nicht verstehen was GPG tut. Selbst Leute von denen ich erwartet hätte GPG zu verstehen konnten mit im IRC nichtmal die Grundfunktionen erläutern. GPG ist ein schönes Tool, scheitert aber an der realen Welt kläglich was auch erklärt warum dieses gute Tool so wenig Verbreitung hat.

Gestern hatte ich mal wieder ein Erlebnis, bei dem man sich nur an den Kopf fassen konnte. Diesmal allerdings wegen eigener Dummheit. Als ich gestern mein Netbook mal wieder mit den neuen Updates von Arch-Linux versorgen wollte, ist während der Installation ist irgendwann der Rechner ausgegangen. Wann genau kann ich nicht sagen, da ich nicht die ganze Zeit vorm Rechner war. Aber die Ursache war auf jeden Fall ein leerer Akku.

Tja, man sollte wirklich erst mal den Akkustand prüfen, bevor man die Updates einspielt. Das habe ich dann nachdem ich das Netzkabel angeschlossen und die Kiste wieder gestartet habe feststellen müssen. Kurz nachdem ich unter LXDE angemeldet habe, gab es eine nette Kernel Panic.

Also wieder ein Neustart. Danach ganz schnell angemeldet und versucht die Logs unter /var/log anzusehen. Kernel Panic. Nächster Versuch. Diesmal allerdings kein Versuch Logs anzusehen, sondern pacman -Syu aufgerufen. Eventuell wurde wegen des leeren Akkus ja nur ein Paket nicht ganz installiert. Kernel Panic. Hmm… Eventuell hat das Dateisystem eine Macke? Also gut, dann booten wir eben die Kiste mal mit dem Installationsmedium von Arch und prüfen mal das Dateisystem der Root- und Homepartion. Hier gab es mal keine Kernel Panic, sondern erst mal eine Hürde, wie man mittels Luks verschlüsselte LVM mountet. Also schnell mal mit dem Smartphone gegoogelt. Ach so geht das… Ein Check des Dateisystems ergab aber nichts. Nicht mal eine Kernel Panic. Also gut, dann schauen wir mal die Logs an. Nichts.

Das suchen wir den Fehler Spielchen habe ich dann noch ca. 2 Stunden gespielt und mich dann entschieden, die persönlichen Daten am Wochenende zu sichern und die Kiste neu zu installieren. Das geht auf jeden Fall schneller. Gut, dass ich aber noch am gleichen Abend im Forum von archlinux.org vorbeigeschaut habe. Dort habe ich dann diesen Thread gefunden. Und genau in dem Moment habe ich mir an den Kopf gefasst. Denn mein Netbook hat einen Broadcom-Chip für das WLAN, welcher das Modul brcmsmac nutzt. Und bei der abgebrochenen Aktualisierung war bei den neuen Paketen auch der Kernel Linux 3.10.6 dabei. Scheinbar lief die Aktualisierung wohl doch durch. Zumindest bis zum Kernel.

Ich habe mich daher erst mal entschlossen, wieder den alten Kernel 3.10.5 zu installieren. Und schon läuft die Kiste wieder. Da Broadcom ja nicht gerade der Hit unter Linux ist, überlege ich mir jetzt allerdings noch, ob die die WLAN-Karte gegen eine andere z. B. von Intel tausche. Allerdings soll Lenovo ja im Bios eine Whitelist führen und so viele Karten aussperren.

14. August 2013

Die Fragen

Zusammen mit der Anmeldung haben wir am 1. August 2013 auch ein Gewinnspiel gestartet. Bis zum 11. August 2013, 23:59 Uhr, konnten die Antworten per E-Mail oder Kommentarfeld eingesandt werden.

Folgende drei Fragen mussten richtig beantwortet werden:

  1. Welches Betriebssystem nutzte Linus Torvalds vor der Programmierung von Linux?
  2. Nenne zwei Filme der Blender Foundation, die mit Hilfe von Blender erstellt wurden.
  3. In welchem Jahr ist die Mir abgestürzt?

Die Antworten

Die richtigen bzw. von uns gesuchten Antworten sind:

  1. Minix
  2. Elephants Dream, Big Buck Bunny, Sintel, Tears of Steel (mindestens zwei aus dieser Liste)
  3. 23. März 2001

Interessanterweise gab es viele Leute, deren E-Mail-Aufmachung sehr ähnlich war. Wüssten wir es nicht besser, würde man fast sagen, die Antworten wurden einfach nur kopiert. Zumal Frage 1 in diesen E-Mails mit „Sinclair QDOS“ beantwortet wurde. Es stimmt zwar, dass Linus Torvalds im letzten Jahr seiner Schulzeit einen Sinclair QL mit Sinclair QDOS erstanden hatte. Danach nutze er aber an der Universität Minix (ein Unix-Klon), was ihn erst dazu brachte, Linux zu entwickeln.

Die Gewinner

Es gab insgesamt 36 Einsendungen, davon 13 richtige (29 per E-Mail und 7 per Kommentar). Die Namen der 13 Einsender mit richtiger Lösung wurden in den Zufallsgenerator auf random.org eingegeben, welcher dann eine zufällige Sortierung der Namen erzeugte.

Die ersten drei Namen auf der Liste haben dann die Bücher und Eintrittskarten zur Ubucon gewonnen, wobei sich Platz 1 zuerst ein Buch aussuchen darf, dann Platz 2 und zuletzt Platz 3.

Die Namen der glücklichen Gewinner lauten:

  1. Georg Wagner
  2. Florian Winkler
  3. Corinna Kerlies

Alle drei wurden per E-Mail von uns informiert. Die Bücher werden bei der Eröffnung der Ubucon am Freitag in Heidelberg überreicht.

Wir danken natürlich auch den anderen Teilnehmern für die Teilnahme an der Verlosung und würden uns freuen, wenn diese auch ohne Gewinn bei der Ubucon in Heidelberg vorbeischauen würden.

13. August 2013

Kürzlich hatte es eine Diskussion darüber gegeben, ob Chromium Firefox als Standard-Browser in Ubuntu ersetzen soll. In Ubuntu 13.10 wird Firefox weiter als Standard-Browser ausgeliefert werden.

Im Oktober soll Ubuntu 13.10 „Saucy Salamander“ erscheinen. Ubuntus Desktop-Manager Jason Warner hatte bereits im Mai erklärt, Chromium zum Standard-Browser machen zu wollen. Nun gibt es eine Entscheidung bezüglich Ubuntu 13.10 – in der kommenden Version der beliebten Linux-Distribution wird weiter Firefox der Standard-Browser sein. Warner stellte allerdings erneut klar, dass er Chromium als Standard-Browser für Ubuntu haben möchte, so dass das Thema für Ubuntu 14.04 noch nicht vom Tisch ist. Weiteres wird die Zukunft zeigen.

Anscheinend verfolgte Torvalds mit der Namensgebung „Linux for Workgroups“ einen geheimen Plan, doch der ging nicht ganz auf. So gibt es nur die fünfte Entwicklerversion.

„Windows for Workgroups 3.11“ wurde am 11. August 1993 veröffentlicht und der Wortlaut der Freigabe-Mail für -rc5 lässt vermuten, dass Torvalds den Kernel 3.11 gerne 20 Jahre nach jener Windows-Version in einer stabilen Version zur Verfügung gestellt hätte. Pech.

Doch immerhin hält sich das Volumen der Änderungen in der aktuellen Version in einem solche geringen Rahmen, dass nun von einer Beruhigung gesprochen werden kann. Die Änderungen scheinen ausnahmslos Korrekturen zu sein, die sich einigermaßen gleichmäßig über die verschiedenen Bereiche verteilen. Unter den Treibern wurde insbesondere wieder am Radeon-Grafik-Treiber und den ACPI-Treibern gebastelt, das Dateisystem btrfs hat einige als „Fix“ gekennzeichnete Patches erhalten und die Tracing-Infrastruktur zum Mitschreiben von Logs für Kernel- und Systementwickler wurde ebenfalls mit Fehlerkorrekturen bedacht.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.11-rc1 10 160 8 889 770 288 238 578 14.07.2013 14
3.11-rc2 252 662 3 588 93 838 21.07.2013 7
3.11-rc3 379 339 6 882 4 754 29.07.2013 8
3.11-rc4 394 386 6 662 5 011 04.08.2013 6
3.11-rc5 220 188 1 850 1 143 11.08.2013 7
Gesamt 11 409 9 568 786 072 340 126 42

* Tage seit dem letzten rc/Release

Quelle: Linux Kernel Mailing List

12. August 2013

Ich finde ein ssh-keymanager ist sinnvoll wenn man mehrere Benutzer und Linuxserver verwalten muss. Angenommen man hat um die 40 Entwickler die auf bis zu 100 verschiedene Server zugreifen müssen. Für jeden Entwickler ein Benutzerkonto auf dem jeweiligen System zu erstellen ist sehr zeitaufwendig und bedarf auch einer guten Dokumentation. Meine Idee ist es ein Benutzerkonto zu erstellen zum Beispiel ewl , unter diesem Benutzer können sich alle Entwickler anmelden. Vorraussetzung ist das der Publickey des Entwickler in der authorized_keys hinterlegt wurde. Das hinterlegen des Keys würde in diesem Fall der ssh-keymanager übernehmen.

Installation
Die Inbetriebnahme des ssh-keymanagers ist recht einfach. Den Ordner entpacken und in ein entsprechendes Verzeichniss ablegen, auf den der Apache zugreifen kann. Eine Mysqldatenbank erstellen, den mitgelieferten Dump einspielen und die Zugangsdaten in der inc/connect.inc.php hinterlegen. Nun die Webseite aufrufen und mit admin / itbasic anmelden.

Damit die Keys verteilt werden können muss der Apache Benutzer in der Lage sein eine shell auszuführen, gegebenenfalls muss dafür die /etc/passwd angepasst werden. Zusätzlich muss unter dem Apache Benutzer ein Public key erstellt werden, dieser wird in der Mysqldatenbank(Tabelle systemkey) hinterlegt.

Host und Linuxbenutzer anlegen
Ein neuer Host wird über “Host => hinzufügen” hinzugefügt, wichtig ist hierbei das die korrekte IP Adresse angegeben wird. Nachdem der Host angelegt wurde, kann über “Host => anzeigen” ein neuer Linuxbenutzer für den Host angelegt werden. Der Linuxbenutzer muss nun jedoch noch manuell auf dem eigentlichen System angelegt werden und der zuvor erstellte public key des Apache muss in der authorized_keys abgelegt werden.
Bevor der erste Abgleich der Keys stattfinden kann, muss man sich über den Apache Benutzer an dem neuen Host anmelden. Durch die Anmeldung wird der Neue Host zu den known_hosts hinzugefügt.

Benutzer / Benutzergruppe
Unter Benutzer gibt es die Möglichkeit einen neuen Benutzer anzulegen bzw sich alle Benutzer anzuzeigen zu lassen.
Für die einfachere Verwaltung können Benutzer zu Gruppen zusammengefasst werden, diese Benutzergruppe wird dann dem entsprechendem Linuxbenutzer zugewiesen.

Abgleich
Unter Abgeich => Systemkey wir lediglich für den einfachen Zugriff der Public Key des Apache Benutzers dargestellt.
Bei dem Punkt anzeigen werden alles Linuxbenutzer aufgelistet die aktualisiert werden müssen. Ändert zum Beispiel ein Benutzer seinen Public Key, wird der entsprechende Linuxbenutzer hier aufgeführt. Ein klick auf den Pfeil stößt den Abgleich der Keys an.

Das Layout könnte man sicherlich noch überarbeiten, aber ich denke fürs erste sollte es reichen. Wenn jemand einen Fehler findet oder einen Änderungswunsch hat, einfach eine email schreiben.

 

Serverübersicht

 

Benutzerübersicht

 

Download

Kleine Anmerkung
Da meine grafischen Fähigkeiten leider nur reichen um Bilder mit Hilfe von Gimp zurechtzuschneiden, benutze ich folgende Buttons: http://fortawesome.github.io/Font-Awesome/

Auch ich habe lange Zeit Dropbox genutzt, um meine Daten und dabei insbesondere Bilder von meinem Smartphone zu synchronisieren. Natürlich sind Dropbox oder auch andere Cloud-Dienste sicherlich praktisch, aber man darf nie vergessen, dass man seine Daten in fremde Hände gibt. Glücklicherweise gibt es aber auch Cloud-Lösungen, die man auf seinem eigenen Server bzw. sogar Webspace betreiben kann. Eine davon und wohl auch eine der fortgeschrittensten ist Owncloud. Ich muss darüber hinaus erwähnen, dass ich Owncloud ebenso wie andere Cloud-Dienste ausschließlich zur Synchronisierung von Dateien wie Bildern, Dokumenten oder Musik nutze, meinen Kalender und meine Kontakte lasse ich weiterhin fremdverwalten. Nicht weil ich das besonders toll finde, sondern einfach weil es bislang keine für mich praktikable Lösung gibt dies z.B. mit Owncloud zu erledigen.

Foldersync HauptmenüEinen riesigen Nachteil aber hat Owncloud: Die dazugehörige Android-App ist eher mäßig, auf die Synchronisierung kann man sich kaum verlassen. So fehlten mir immer wieder Bilder, wenn die Internetverbindung während des Uploads mal unterbrochen wurde oder aber die Bilder waren mehrfach vorhanden. Allerdings kann man diesem Problem sehr einfach aus dem Weg gehen, indem man statt der Owncloud-App Foldersync (Lite) verwendet. Glücklicherweise unterstützt Owncloud nämlich WebDAV, was sich mit Foldersync nutzen lässt. Wie genau man das macht, möchte ich euch in diesem Artikel zeigen.

WP-Appbox: FolderSync Lite (Kostenlos, Google Play) →

WP-Appbox: FolderSync (2,85 €, Google Play) →

Zuerst müsst ihr Foldersync oder Foldersync Lite auf eurem Smartphone installieren. Ob ihr euch nun für die kostenpflichtige oder kostenlose Variante entscheidet macht für unseren Verwendungszweck keinen Unterschied (bis auf die Werbung in der App). Danach öffnet ihr die App und wählt Accounts aus. Klickt dort unten auf das Wolkensymbol mit dem Pluszeichen und wählt im darauffolgenden Dialog WebDAV aus. Die nachfolgende Einrichtung entnehmt ihr bitte den Bildern unter diesem Abschnitt.

Foldersync Einstellungen für Owncloud (1) Foldersync Einstellungen für Owncloud (2)

Die Einstellungen müsst ihr natürlich an eure Voraussetzungen anpassen, ganz mutige dürfen natürlich auch HTTP statt HTTPS verwenden – ganz mutige.

Abschließend könnt ihr nun im Hauptmenü von Foldersync unter dem Punkt Ordnerpaare einstellen, welche Ordner auf eurem Smartphone mit welchem Ordner eurer Owncloud synchronisiert werden soll. Dabei ist sowohl eine echte Zwei-Wege-Synchronisation möglich, bei der die Ordnerinhalte wirklich immer identisch sind, als auch eine einseitige „Synchronisation“ zur Owncloud oder zum Smartphone möglich.

 

Kürzlich ist mir mein Ejabberd Jabber Server abgeraucht und wollte sich nicht mehr zum Funktionieren überreden lassen. Weil ich in der Vergangenheit schon öfter Probleme mit Ejabberd hatte, habe ich mich nach einer Alternative umgesehen. Da wäre noch OpenFire gewesen, das ich schon einmal ausprobiert  habe. Das kam aber nicht mit Ipv6 Adressen zurecht und braucht Java. Bin nicht so der Fan davon… also weitergesucht.

Schließlich bin ich auf Prosody gestoßen, von dem es heißt, er sein ein moderner, einfacher Jabber Server und leicht zu installieren. Da habe ich gleich zugegriffen und mir das System mal genauer angeschaut. Tatsächlich ist die Basiskonfiguration nicht besonders kompliziert…

Zur Installation und Konfiguration benötigen wir Rootrechte:

sudo -s
apt-get update && apt-get install prosody

… installiert Prosody und alle benötigten Lua-Pakete. Wer Prosody in Kombination mit einer MySQL Datenbank nutzen will, muss außerdem folgendes Paket installieren:

apt-get install lua-dbi-mysql

Die Prosody Konfiguration befindet sich unter /etc/prosody/prosody.cfg.lua
Von der bereits vorhandenen Beispielkonfiguration machen wir ein Backup:

cd /etc/prosody/
cp prosody.cfg.lua prosody.cfg.lua.bak

und leeren die Konfigurationsdatei, damit wir unsere eigene Konfiguration in die Datei schreiben können:

>prosody.cfg.lua
nano prosody.cfg.lua

Übernehmt folgende Konfiguration:

pidfile = "prosody.pid"

-- Benutzerkonto mit Administratorrechten
admins = {"benutzer@meinserver.de"}

-- Datenbankverbindung (Wenn keine MySQL Datenbank genutzt werden soll, die folgenden Zeilen einfach weglassen)
storage = "sql"
sql = {
driver = "MySQL";
database = "prosody";
host = "localhost";
username = "prosody";
password = "prosody_passwort";
}

-- Passwörter gehashed abspeichern
authentication = "internal_hashed"

-- Aktivierte Module
modules_enabled = {
-- Generally required
"roster";
"saslauth";
"tls";
"dialback";
"disco";

-- Not essential, but recommended
"private";
"vcard";
"offline";
"admin_adhoc";

-- Nice to have
"legacyauth";
"version";
"uptime";
"time";
"ping";
"register";
"posix"; -- Lässt Prosody im Hintergrund laufen
};

-- SSL Konfiguration
http_ports = { 5280 }
http_interfaces = { "*" }

https_ports = { 5281 }
https_interfaces = { "*" }

https_ssl = {
certificate = "/etc/myssl/prosody/prosody.crt";
key = "/etc/myssl/prosody/prosody.key";
}

-- Konferenzserver
disco_items = {
{ "conference.meinedomain.de", "MUC" };
}

-- Benutzer können sich selbst registrieren (Auf "false" setzen, wenn das nicht erlaubt sein soll)
allow_registration = true;

-- SSL Keyfile und Zertifikat, falls SSL verwendet werden soll. Wenn nicht, diese Zeilen einfach entfernen
ssl = {
key = "/etc/myssl/prosody/prosody.key";
certificate = "/etc/myssl/prosody/prosody.crt";
}

-- Verbindungen zu locahlost und meinedomain.de erlauben
VirtualHost "localhost"
VirtualHost "meinedomain.de"

-- Chatrooms aktivieren
Component "conference.meinedomain.de" "muc"
name = "Chatrooms"
restrict_room_creation = false

Der Domainnamen, die MySQL Zugriffsdaten und der Admin-Benutzername sowie die Pfade zu den SSL Zertifikaten und dem dazugehörigen Key müssen an die eigene Umgebung angepasst werden. Wie ihr euch SSL Zertifikate erstellen könnt, könnt ihr hier nachlesen: Kostenloses SSL Zertifikat mit CaCert oder Eigene CA erstellen und SSL Zertifikate ausstellen
Alternativ kann Prosody auch selbst passende Zertifikate erstellen. Achtet darauf, dass die Rechte für die Zertifikatdateien so gesetzt sind, dass der Nutzer Prosody darauf zugreifen kann, sonst verweigert Prosody den Start (siehe auch verlinkte Dokumentation):

chmod 600 /path/to/certificate.key
chown prosody:prosody /path/to/certificate.key

Die Beispielkonfiguration geht davon aus, dass bereits eine MySQL Datenbank aufgesetzt und ein Prosody Nutzer eingerichtet ist, der entsprechenden Zugriff auf die Datenbank hat. Falls kein MySQL, sondern die interne Datenbank genutzt werden soll, können die entsprechenden Zeilen  – wie in der Konfiguration schon angemerkt – einfach entfernt werden.

Prosody kann jetzt über den prosodyctl Befehl gesteuert werden:

prosodyctl start
prosodyctl restart
prosodyctl stop

sind die wichtigsten Kommandos zum steuern von Prosody.

Neue Benutzer können direkt über Jabber-Clients oder folgendes Kommando erstellt werden:

prosodyctl adduser benutzer@meinedomain.de

Der Wochenrückblick lässt das Geschehen der vergangenen Woche rund um Ubuntu, Linux und Open Source Revue passieren.

Rund um Ubuntu

Ubuntu Edge

Auch wenn die Indiegogo-Kampage für das Ubuntu Edge nach wie vor eher gemächlich voranschreitet, gab es jetzt einen kräftigen Schub von Bloomberg LP, die einen 80000 US-Dollar-Perk finanzierten. Zusätzlich hat Canonical auch erkannt, dass 800 US-Dollar für ein Ubuntu Edge wohl zu viel sind und bieten es nun für 695 US-Dollar (ca. 520 Euro) an.

Weitere Neuigkeiten zum Ubuntu Edge findet man im Blog.

Ubuntu Touch

Bis Ubuntu 13.10 wollen die Ubuntu-Entwickler ein lauffähiges und benutzbares Ubuntu Touch erstellen. Bis dahin liegen einige große Steine im Weg, die angegangen werden müssen. Dazu zählen Images-Upgrades via WLAN, Click-Paketformat, Management von App-Zugriff auf Systemressorucen und natürlich Unity 8 mit Mir-Unterstützung. Dennoch hielt XMir am Freitag Morgen den Einzug in das Ubuntu-13.10-Repository.

Das Designteam von Canonical stellt derweil Überlegungen an, wie die neue Calender App in Ubuntu Touch aussehen soll. Dargestellt werden Jahres-, Monats-, Wochen-, Tages- und Ereignisansicht.

Xubuntu und XMir

XMir heißt die Abstraktionsschicht, die Canonical zwischen seinem Display-Server Mir und dem X-Server schalten will, sodass X-Anwendungen auf Mir laufen. Für Xubuntu wurden jetzt Test-Images bereitgestellt, die bereits XMir einsetzen. Die Geschwindigkeit soll etwas geringer sein als heute und eine Virtualisierung ist auch nicht möglich. Das Xubuntu-Team stellte aber im Nachhinein noch einmal klar, dass noch keine finale Entscheidung pro Mir gefallen sei.

Quelle: Pro-Linux

Ubuntu App Showdown Contest 2013

Mitte der Woche startete der Ubuntu App Showdow!. Innerhalb von sechs Wochen sollen die Teilnehmer Apps für Ubuntu Touch mittels des Ubuntu SDK programmieren. Als Gewinn winken Nexus-4-Smartphones von LG.

Quellen: Ubuntu App Developer, Ikhaya

Neues rund um Linux

Linux-Kernel 3.10 mit Langzeit-Unterstützung

Auch wenn Linux-Kernel 3.10, der Anfang Juli 2013 veröffentlicht wurde, bereits zahlreiche Patches erfahren musste, hat Kernel-Entwickler Greg Kroah-Hartmann angekündigt, dass die Version 3.10 eine Langzeitunterstützung bekommt. Damit erhält der Kernel für zwei Jahre Unterstützung mit Patches und ist somit für langfristige Projekt dauerhaft einsetzbar.

Quellen: Pro-Linux, heise open

X.Org-Handbuch für Neuentwickler

Auch wenn die Zielgruppe recht klein ist, haben die X.org-Entwickler ein Handbuch veröffentlicht, was vor allem für Einsteiger die X-Entwicklung beschreibt. X New Developer’s Guide“ http://www.x.org/wiki/guide/ steht online und als EPUB zum Download zur Verfügung. Inhalt sind das Konzept von X-Client und X-Server und Kommunikation zwischen beiden, die X-Erweiterung wie XKB, RandR oder Xinerama, die Bibliotheken Xlib und XCB und vieles mehr.

Quelle: Linux-Magazin

Aufruf zur Teilnahme an der FOSDEM 2014

Nächstes Jahr findet am 1. und 2. Februar die FOSDEM 2014 wie üblich in Brüssel statt. Auf der „Free and Open Source Software Developers' European Meeting“ treffen sich hauptsähchlich Entwickler von Freier und Open-Source-Software, um gemeinsam über ihre Projekte zu sprechen. Bis zum 1. Oktober 2013 werden ab sofort Vorträge gesucht.

Quellen: Pro-Linux, "Call for participation" für die FOSDEM 2014

gNewSense mit Debian statt Ubuntu

gNewSense lautet der Namen einen Distribution, die nur freie Software mitliefern will. Bisher setzt man auf Ubuntu als Unterbau. Da die Distribution die Grenze zwischen freier und unfreier Software immer mehr verwischt, entschieden sich Entwickler, Debian für die neue Version von gNewSense 3.0 zu nutzen.

Quelle: gNewSense 3 Released, Is No Longer Based on Ubuntu

Ich plane schon länger die Anschaffung / Installation eines Network Attached Storage (NAS), konnte mich aber bisher nie auf einen Hersteller oder Modell festlegen.

Was ist / bringt ein NAS?

NASEin Network Attached Storage ist, wie der Name schon sagt, ein über das Netzwerk erreichbarer Speicher, der als Dateiserver fungiert. Im privaten Bereich macht das z.B. Sinn für Fotos, Musik und Videos, aber auch als eigene Cloud-Lösung, die, wenn man will, auch aus dem Internet aus erreichbar ist.

Mögliche Einsatzzwecke für ein NAS

Was mir bisher so eingefallen ist:

  • Download-Client für das Usenet, z.B. mit SABnzbd
  • (oder) JDownloader als Download-Client mit Web-Interface
  • DLNA- bzw NFS-Server für XBMC auf meinem Raspberry Pi (mit Raspbmc)
  • Backup bzw eigene Cloud, um die eigenen Dateien nicht irgendwem anzuvertrauen

Eine weitere interessante Anwendung ist beispielsweise auch der Betrieb als VPN-Server (Raspberry Pi: OpenVPN VPN-Server installieren), um unterwegs über ungesicherte WLAN-Hotspots verschlüsselt surfen zu können oder eben auf gespeicherte Dateien zuhause zugreifen zu können – das kann ja sowohl im Studium oder auch für das eigene Gewerbe sinnvoll sein.

Fertig kaufen oder selbst installieren?

Wenn man sich etwas mit dem Thema NAS beschäftigt stolpert man sehr schnell über Namen wie Synology, die out-of-the-box laufen und nicht erst zusammengestellt und zusammengeschraubt werden müssen. Wichtig hierbei ist es natürlich darauf zu achten, dass das Betriebssystem des Netzwerkspeichers durch Plugins oder weitere Anwendungen für die oben angesprochenen Szenarien erweitert werden kann. Bei den größeren Herstellern gibt es da viele Möglichkeiten, aber gerade bei günstigeren „no-name“ Modellen kann man kaum etwas an zusätzlichen Funktionen neben der reinen Netzwerkspeicher-Funktion hinzufügen.

Um also mehr Flexibilität geboten zu bekommen und auch beim Einrichten etwas an Erfahrung zu sammeln würde es sich auch anbieten, einen „normalen PC“ (natürlich in Größe und Innenleben an NAS-Einsatz angepasst) als NAS zu benutzen und das Betriebssystem frei auszuwählen. In erster Linie würde ich da an die Ubuntu Server Edition denken, aber auch von spezialisierten Distributionen wie OpenMediaVault habe ich bisher viel positives Feedback gehört. Der Vorteil hierbei ist offensichtlich, denn die Bedienung (via Konsole!) ist die gleiche wie am Desktop-Linux und man kann beliebige Linux-Software installieren und nutzen, was wiederum etwas exotischere Einsatzzwecke (wie z.B. VPN) deutlich vereinfacht.

Ich tendiere stark zu letzterem und bin gelegentlich auf der Suche nach passender Hardware – denn abgesehen von den Leistungsanforderungen sollte das Gerät auch nicht überdimensioniert sein, um den Stromverbrauch und somit auch die Stromkosten einigermaßen im Rahmen zu halten. Ein Quad-Core-Prozessor scheidet somit schonmal von vornherein aus, eine interessante Alternative dürfte ein Intel Atom mit 1.8 GHz sein – dann darf man es natürlich mit dem Multitasking nicht komplett übertreiben. Auch hatte ich den Raspberry Pi selbst als NAS mal ins Auge gefasst, aber da würde man sicher sehr schnell an die technischen Grenzen (neben Prozessor auch USB 2.0 und RAM) stoßen.

Weitere Infos gibt es dann, wenn das Projekt konkrete Formen annimmt.

Auch ich habe lange Zeit Dropbox genutzt, um meine Daten und dabei insbesondere Bilder von meinem Smartphone zu synchronisieren. Natürlich sind Dropbox oder auch andere Cloud-Dienste sicherlich praktisch, aber man darf nie vergessen, dass man seine Daten in fremde Hände gibt. Glücklicherweise gibt es aber auch Cloud-Lösungen, die man auf seinem eigenen Server bzw. sogar Webspace betreiben kann. Eine davon und wohl auch eine der fortgeschrittensten ist Owncloud. Ich muss darüber hinaus erwähnen, dass ich Owncloud ebenso wie andere Cloud-Dienste ausschließlich zur Synchronisierung von Dateien wie Bildern, Dokumenten oder Musik nutze, meinen Kalender und meine Kontakte lasse ich weiterhin fremdverwalten. Nicht weil ich das besonders toll finde, sondern einfach weil es bislang keine für mich praktikable Lösung gibt dies z.B. mit Owncloud zu erledigen.

Foldersync HauptmenüEinen riesigen Nachteil aber hat Owncloud: Die dazugehörige Android-App ist eher mäßig, auf die Synchronisierung kann man sich kaum verlassen. So fehlten mir immer wieder Bilder, wenn die Internetverbindung während des Uploads mal unterbrochen wurde oder aber die Bilder waren mehrfach vorhanden. Allerdings kann man diesem Problem sehr einfach aus dem Weg gehen, indem man statt der Owncloud-App Foldersync (Lite) verwendet. Glücklicherweise unterstützt Owncloud nämlich WebDAV, was sich mit Foldersync nutzen lässt. Wie genau man das macht, möchte ich euch in diesem Artikel zeigen.

FolderSync Lite

<div class="developer">
  Entwickler: <a target="_blank" href="https://play.google.com/store/apps/developer?id=Tacit+Dynamics">Tacit Dynamics</a>
</div>

<div class="price">
  Preis: Kostenlos 

  <div title="4.4 von 5 Sternen" class="rating-stars stars45">
  </div>
</div>

<div class="developer">
  Entwickler: <a target="_blank" href="https://play.google.com/store/apps/developer?id=Tacit+Dynamics">Tacit Dynamics</a>
</div>

<div class="price">
  Preis: 2,85 € 

  <div title="4.6 von 5 Sternen" class="rating-stars stars45">
  </div>
</div>

Zuerst müsst ihr Foldersync oder Foldersync Lite auf eurem Smartphone installieren. Ob ihr euch nun für die kostenpflichtige oder kostenlose Variante entscheidet macht für unseren Verwendungszweck keinen Unterschied (bis auf die Werbung in der App). Danach öffnet ihr die App und wählt Accounts aus. Klickt dort unten auf das Wolkensymbol mit dem Pluszeichen und wählt im darauffolgenden Dialog WebDAV aus. Die nachfolgende Einrichtung entnehmt ihr bitte den Bildern unter diesem Abschnitt.


Die Einstellungen müsst ihr natürlich an eure Voraussetzungen anpassen, ganz mutige dürfen natürlich auch HTTP statt HTTPS verwenden – ganz mutige.

Abschließend könnt ihr nun im Hauptmenü von Foldersync unter dem Punkt Ordnerpaare einstellen, welche Ordner auf eurem Smartphone mit welchem Ordner eurer Owncloud synchronisiert werden soll. Dabei ist sowohl eine echte Zwei-Wege-Synchronisation möglich, bei der die Ordnerinhalte wirklich immer identisch sind, als auch eine einseitige „Synchronisation“ zur Owncloud oder zum Smartphone möglich.

 

11. August 2013

Vor etwas mehr als einen Monat habe ich meine Root-Partition nun auf Btrfs umgestellt. In dieser Zeit hatte ich mehrere größere Updates meiner Distribution eingespielt und auch zwei mal das System zu Absturz gebracht. Einmal durch ein Programm eines Bekannten, dass ich testen sollte und einmal dadurch, dass ich in der Steckdosenleiste leider den falschen Stecker gezogen habe.

Wirklich interessiert hat es aber mein System nicht. Es funktioniert alles wie es soll. Da es auch keine anderen Probleme gibt und ich z. B. die Snapshot-Funktion immer mehr mag, habe ich nun mittels folgender Befehle das Image der ext4-Partition, dass beim Umwandeln auf btrfs automatisch angelegt wurde, nun endgültig entfernt.

rm /ext2_saved/*
nbtrfs subvolume delete /ext2_saved

Derzeit kann ich also das neue Dateisystem, soweit man das nach einem Monat machen kann, nur empfehlen. Zumindest für private Rechner.

Zwischenzeitlich wurde ich auch schon gefragt, ob ich eventuell Benchmarks machen könnte. Ja, ich könnte. Ich werde es allerdings nicht machen. Mir geht es dabei nicht darum, ein noch schnelleres Dateisystem zu verwenden. Mir geht es hauptsächlich um die Funktionen wie Snapshots, Subvolumes oder die Dateisystemprüfung im laufendem Betrieb usw.

In der Fachliteratur wird oft ein Abfall der Geschwindigkeit bei Festplatten von den äußeren zu den inneren Bereichen beschrieben. Natürlich klingt dieser Effekt sehr plausibel, aber beobachten kann man ihn im Betrieb meist nicht.

Darum hier ein Beispiel einer Western Digital RED 3TB NAS-Festplatte während eines badblocks Tests. Dabei wird die Festplatte einmal komplett gelesen.

sdo-pinpoint=1376161314,1376191959

Deutlich ersichtlich der Abfall von über 150 MB/sec auf 80 MB/sec.

10. August 2013

Wir schreiben das Jahr 2013, ein Jahr in dem wir ständig gegen einen Grundsatz aus dem Datenschutz verstoßen: Die Datensparsamkeit. Hintergrund von diesem Grundsatz ist das man Daten die nicht entstehen oder zumindest nicht gespeichert werden auch nicht besonders Schützen muss.

Dieser Grundsatz ist eigentlich eine gute Idee, aber leider machen es gerade moderne Anwendungen immer schwerer diesem Grundsatz zu entsprechen. Dazu kommt noch ein weiterer Punkt: Wir verlassen uns beim Thema Datenschutz zu viel auf Schlangenöl wie Privatsphäreeinstellungen von Facebook (und anderen Sozialen Netzwerken) oder die entsprechenden Einstellungen von unserem Smartphone.

Soziale Netzwerke

Gerade Facebook ist hier ein sehr gutes Beispiel, es gibt sehr viele Leute die ihre Einstellungen sehr Restriktiv gewählt haben. Eine (grundlegend) gute Idee, jedoch sammelt Facebook mit großer Wahrscheinlichkeit unabhängig von unseren Einstellungen trotzdem die Daten, da ein filtern der Informationen an der Quelle wesentlich aufwendiger ist als die Daten einfach im Benutzerprofil auszublenden. Wieder andere Menschen verwenden kein Facebook, mit dem glauben an die Illusion das Facebook so kein Profil über einen erstellen kann. Ich muss euch enttäuschen, es ist für Facebook egal ob ihr einen Account bei diesem Verein habt oder nicht, ein Profil habt ihr dort unabhängig von eurem Account. Andere Soziale Netzwerke verhalten sich hier nicht wesentlich anders, ermöglicht wird dies über große Werbenetzwerke und die fast überall vorhandenen Social Buttons (Liken, Sharen, Retweeten) welche permanent euer Surfverhalten aufzeichnen und zu einem ansehnlichen Profil zusammenfassen.

Smartphones

Unsere Smartphones sind nicht besser, technisch gesehen handelt es sich dabei um tragbare PCs auf welchen man Firmen wie Microsoft, Apple oder Google einen Administrator Account geschenkt hat. Herr über seine Daten ist man auf einem dieser Geräte nicht, das sind nämlich eben genannte große Anbieter welche sich aktuell einen Kampf mit den Mobilfunkprovidern darüber liefern wem der Kunde gehört.

Das ein Administrator auf einem System machen kann was er will ist uns bekannt, nur so funktioniert z.B. auch die Remote Installation oder Deinstallation von Anwendungen die heute nur noch Apps heißen. Das es für einen Administrator aber auch egal ist ob wir die Standorteinstellungen Datenschutztechnisch eher positiv gewählt haben ist für diesen zusätzlichen (und von uns freiwillig gewählten) Administrator ebenfalls kein Hindernis.

Shopping

Auch beim Einkaufen (nicht nur im Internet) verschenken wir sehr gerne unseren Daten, unsere Wünsche und auch unsere Neigungen. Ich selbst schenke Amazon ein ganz bestimmtes Profil von mir, der Dienst weiß welche Filme ich mag und welche Bücher ich lese. Suche ich aber Dinge von denen ich nicht möchte das Amazon diese in sein Profil aufnimmt greife ich auf eine andere Art auf den Shop zu. Der Logout Button ist übrigens eine Illusion, nur falls jemand auf die Idee kommt man könne sich ja einfach abmelden und alles wird gut.

Für das Geschenk (unsere Daten) bekommen wir von Anbietern wie Amazon diese tollen Empfehlungen die uns zum Kauf von Artikeln verleiten sollen die wir vielleicht auch haben wollen.

Am schönsten für diese Anbieter (Amazon, eBay, …) ist es aber wenn wir deren Browser-Addon nutzen um einen "Universal Wunschzettel" zu haben, wir ermöglichen es nun diesem Shop all unsere Bewegungen im Internet vollständig zu erfassen und das Profil das bisher nur auf Einkäufe im Shop ermittelt wurde wesentlich zu erweitern.

Abhilfe

Jetzt gibt es 2 Sachen die man Unternehmen kann um mit dieser Situation umzugehen:

  1. Verhindern das die Daten entstehen
  2. Daten für eigene Zwecke verwenden

Verhinderung

Das Verhindern das Daten entstehen ist ohne Zweifel die sicherste Möglichkeit um zu verhindern das wir Daten liefern die wir nicht verschenken möchten. Hierzu gibt es sehr viele Möglichkeiten, am wichtigsten sind hierbei die Erweiterungen für den Browser wie z.B. Ghostery, Adblock Plus oder auch HTTPS Everywhere. Wenn wir diese verwenden sorgen wir dafür das lästige Tracking Dienste durch Werbung und Social Media Funktionen uns nicht mehr erfassen kann. Wir können also selektiv wählen wer unsere Daten bekommt, je nach Einstellung bekommt der Entwickler dieser Erweiterungen noch einen Teil der Daten aber dieser ist uns bekannt und nicht eine Anonyme Menge an mehreren Hundert Tracking Diensten die uns täglich erfassen.

Beim Shopping eignet sich der private Modus prima als Zusatz, ich selbst Suche meine Musik, Filme und andere Produkte auf Amazon nicht in der normalen Browser Session sondern im private Mode und bestellt in der normalen Sitzung sehr gezielt die ausgewählten Artikel. Resultat ist ein Profil mit Empfehlungen auf Amazon die genau meinem Kaufverhalten entsprechen und sehr wenig Angriffsfläche für Dinge die Amazon einfach nichts angehen.

Zum Thema Verhinderung gehört auch die Auswahl an Diensten welchen ihr eure Daten vertraut, bei mir selbst bekommt z.B. Google und Twitter die Daten aber Facebook eben nicht da ich dort keinen Account habe. Ich bin mir bewusst welche Daten in welchem Umfang dort liegen, möchte ich Daten dort nicht haben greife ich wieder auf meine gesonderte Sitzung (private Mode) zurück.

Wenn ihr nicht möchtet das Dienste eure Daten haben dann gebt ihm diese Daten nicht, ein Foto das ihr Privat auf Facebook teilt ist trotzdem ein Datensatz der für Facebook vorhanden und nutzbar ist.

Eigennützig

Oft ist es aber so das man die Ermittlung und Speicherung von Daten nicht wirklich verhindern kann, Dinge die auf meinem Smartphone sind behandle ich wie Dinge die ich Google geschenkt habe. Ich gebe mich nicht der Illusion hin Herr über diese Daten zu sein, aber ich versuche aus dieser unangenehmen Situation das für mich beste zu machen: Die Daten zu nutzen!

Das ist der Grund warum ich Dinge wie den Android Device Manager oder die Standortfreigabe von Google+ nutze, denn die Daten sind schon vorhanden, man kann diese eben nur nicht Einsehen. Durch die Verwendung dieser Standortdaten oder der Remote Administration bekomme ich auf der einen Seite einen gewissen Komfort und auf der anderen Seite bin ich mir auch zu einem größeren Teil bewusst welche Daten (und Möglichkeiten) der Anbieter wirklich hat.

Verschlüsselung

Verschlüsselung ist für dieses Thema "Datenschutz als Illusion" übrigens keine Lösung, auch bei einer Ende zu Ende Verschlüsselung fallen noch sehr viele Daten (Metadaten) an welche für viele Zwecke ausreichend sind. Spätestens dann wenn wir an große Anbieter (Google, Amazon) gehen um deren Dienste zu nutzen handelt es sich nur noch um eine Verschlüsselung für den Transport der Daten. Die Illusion etwas zu verbergen wird hierdurch beim Laien noch verstärkt da diese zu oft glauben das Verschlüsselung ja etwas mit Datenschutz zu tun hat, was eben nicht zwangsläufig so ist.

Wir schreiben das Jahr 2013, ein Jahr in dem wir ständig gegen einen Grundsatz aus dem Datenschutz verstoßen: Die Datensparsamkeit. Hintergrund von diesem Grundsatz ist das man Daten die nicht entstehen oder zumindest nicht gespeichert werden auch nicht besonders Schützen muss.

Dieser Grundsatz ist eigentlich eine gute Idee, aber leider machen es gerade moderne Anwendungen immer schwerer diesem Grundsatz zu entsprechen. Dazu kommt noch ein weiterer Punkt: Wir verlassen uns beim Thema Datenschutz zu viel auf Schlangenöl wie Privatsphäreeinstellungen von Facebook (und anderen Sozialen Netzwerken) oder die entsprechenden Einstellungen von unserem Smartphone.

Soziale Netzwerke

Gerade Facebook ist hier ein sehr gutes Beispiel, es gibt sehr viele Leute die ihre Einstellungen sehr Restriktiv gewählt haben. Eine (grundlegend) gute Idee, jedoch sammelt Facebook mit großer Wahrscheinlichkeit unabhängig von unseren Einstellungen trotzdem die Daten, da ein filtern der Informationen an der Quelle wesentlich aufwendiger ist als die Daten einfach im Benutzerprofil auszublenden. Wieder andere Menschen verwenden kein Facebook, mit dem glauben an die Illusion das Facebook so kein Profil über einen erstellen kann. Ich muss euch enttäuschen, es ist für Facebook egal ob ihr einen Account bei diesem Verein habt oder nicht, ein Profil habt ihr dort unabhängig von eurem Account. Andere Soziale Netzwerke verhalten sich hier nicht wesentlich anders, ermöglicht wird dies über große Werbenetzwerke und die fast überall vorhandenen Social Buttons (Liken, Sharen, Retweeten) welche permanent euer Surfverhalten aufzeichnen und zu einem ansehnlichen Profil zusammenfassen.

Smartphones

Unsere Smartphones sind nicht besser, technisch gesehen handelt es sich dabei um tragbare PCs auf welchen man Firmen wie Microsoft, Apple oder Google einen Administrator Account geschenkt hat. Herr über seine Daten ist man auf einem dieser Geräte nicht, das sind nämlich eben genannte große Anbieter welche sich aktuell einen Kampf mit den Mobilfunkprovidern darüber liefern wem der Kunde gehört.

Das ein Administrator auf einem System machen kann was er will ist uns bekannt, nur so funktioniert z.B. auch die Remote Installation oder Deinstallation von Anwendungen die heute nur noch Apps heißen. Das es für einen Administrator aber auch egal ist ob wir die Standorteinstellungen Datenschutztechnisch eher positiv gewählt haben ist für diesen zusätzlichen (und von uns freiwillig gewählten) Administrator ebenfalls kein Hindernis.

Shopping

Auch beim Einkaufen (nicht nur im Internet) verschenken wir sehr gerne unseren Daten, unsere Wünsche und auch unsere Neigungen. Ich selbst schenke Amazon ein ganz bestimmtes Profil von mir, der Dienst weiß welche Filme ich mag und welche Bücher ich lese. Suche ich aber Dinge von denen ich nicht möchte das Amazon diese in sein Profil aufnimmt greife ich auf eine andere Art auf den Shop zu. Der Logout Button ist übrigens eine Illusion, nur falls jemand auf die Idee kommt man könne sich ja einfach abmelden und alles wird gut.

Für das Geschenk (unsere Daten) bekommen wir von Anbietern wie Amazon diese tollen Empfehlungen die uns zum Kauf von Artikeln verleiten sollen die wir vielleicht auch haben wollen.

Am schönsten für diese Anbieter (Amazon, eBay, …) ist es aber wenn wir deren Browser-Addon nutzen um einen "Universal Wunschzettel" zu haben, wir ermöglichen es nun diesem Shop all unsere Bewegungen im Internet vollständig zu erfassen und das Profil das bisher nur auf Einkäufe im Shop ermittelt wurde wesentlich zu erweitern.

Abhilfe

Jetzt gibt es 2 Sachen die man Unternehmen kann um mit dieser Situation umzugehen:

  1. Verhindern das die Daten entstehen
  2. Daten für eigene Zwecke verwenden

Verhinderung

Das Verhindern das Daten entstehen ist ohne Zweifel die sicherste Möglichkeit um zu verhindern das wir Daten liefern die wir nicht verschenken möchten. Hierzu gibt es sehr viele Möglichkeiten, am wichtigsten sind hierbei die Erweiterungen für den Browser wie z.B. Ghostery, Adblock Plus oder auch HTTPS Everywhere. Wenn wir diese verwenden sorgen wir dafür das lästige Tracking Dienste durch Werbung und Social Media Funktionen uns nicht mehr erfassen kann. Wir können also selektiv wählen wer unsere Daten bekommt, je nach Einstellung bekommt der Entwickler dieser Erweiterungen noch einen Teil der Daten aber dieser ist uns bekannt und nicht eine Anonyme Menge an mehreren Hundert Tracking Diensten die uns täglich erfassen.

Beim Shopping eignet sich der private Modus prima als Zusatz, ich selbst Suche meine Musik, Filme und andere Produkte auf Amazon nicht in der normalen Browser Session sondern im private Mode und bestellt in der normalen Sitzung sehr gezielt die ausgewählten Artikel. Resultat ist ein Profil mit Empfehlungen auf Amazon die genau meinem Kaufverhalten entsprechen und sehr wenig Angriffsfläche für Dinge die Amazon einfach nichts angehen.

Zum Thema Verhinderung gehört auch die Auswahl an Diensten welchen ihr eure Daten vertraut, bei mir selbst bekommt z.B. Google und Twitter die Daten aber Facebook eben nicht da ich dort keinen Account habe. Ich bin mir bewusst welche Daten in welchem Umfang dort liegen, möchte ich Daten dort nicht haben greife ich wieder auf meine gesonderte Sitzung (private Mode) zurück.

Wenn ihr nicht möchtet das Dienste eure Daten haben dann gebt ihm diese Daten nicht, ein Foto das ihr Privat auf Facebook teilt ist trotzdem ein Datensatz der für Facebook vorhanden und nutzbar ist.

Eigennützig

Oft ist es aber so das man die Ermittlung und Speicherung von Daten nicht wirklich verhindern kann, Dinge die auf meinem Smartphone sind behandle ich wie Dinge die ich Google geschenkt habe. Ich gebe mich nicht der Illusion hin Herr über diese Daten zu sein, aber ich versuche aus dieser unangenehmen Situation das für mich beste zu machen: Die Daten zu nutzen!

Das ist der Grund warum ich Dinge wie den Android Device Manager oder die Standortfreigabe von Google+ nutze, denn die Daten sind schon vorhanden, man kann diese eben nur nicht Einsehen. Durch die Verwendung dieser Standortdaten oder der Remote Administration bekomme ich auf der einen Seite einen gewissen Komfort und auf der anderen Seite bin ich mir auch zu einem größeren Teil bewusst welche Daten (und Möglichkeiten) der Anbieter wirklich hat.

Verschlüsselung

Verschlüsselung ist für dieses Thema "Datenschutz als Illusion" übrigens keine Lösung, auch bei einer Ende zu Ende Verschlüsselung fallen noch sehr viele Daten (Metadaten) an welche für viele Zwecke ausreichend sind. Spätestens dann wenn wir an große Anbieter (Google, Amazon) gehen um deren Dienste zu nutzen handelt es sich nur noch um eine Verschlüsselung für den Transport der Daten. Die Illusion etwas zu verbergen wird hierdurch beim Laien noch verstärkt da diese zu oft glauben das Verschlüsselung ja etwas mit Datenschutz zu tun hat, was eben nicht zwangsläufig so ist.

Die Ubuntu-Edge-Kampage läuft bereits seit dem 22. Juli 2013. Gab es in den ersten Tagen einen enormen Schub, ist die Kurve der Geldeingänge inzwischen stark abgeflacht. Es bleiben noch 13 Tage Zeit, die Kampagne erfolgreich umzusetzen.

Neuer Preis für Edge

Nach 18 Tagen steht der Zähler bei 9 Millionen.
Nach 18 Tagen steht der Zähler bei 9 Millionen.

Bei Canonical hat man scheinbar erkannt, dass das Ubuntu Edge für beinahe 800 US-Dollar nicht mehr an den Mann oder die Frau zu bekommen ist. Deswegen gibt es bis zum Ende der Kampagne nur noch einen Ubuntu-Edge-Perk für 695 US-Dollar (ca. 520 Euro), der auch unbegrenzt verfügbar ist.

Der neue Perk verschaffte der Sammlung noch einmal einen kleinen Schub, sodass die Grenze von 9 Millionen US-Dollar überschritten wurde. Damit ist das Ubuntu Edge theoretisch das bisher zweiterfolgreichste Projekt der Crowdfunding-Ära, wenn man beide Augen zudrückt. Zum einen ist das Projekt noch nicht finanziert, wodurch man das Wort „erfolgreich“ eigentlich nicht benutzen sollte. Zum anderen hinkt der Vergleich mit der Ouya-Spielekonsole, da diese zwar „nur“ 8,5 Millionen US-Dollar eingenommen hat, dagegen aber auch nur gut 11 Prozent des Betrages angestrebt waren.

T-Shirts für Unterstützer

Das Ubuntu-Edge-T-Shirt, (C) Canonical
Das Ubuntu-Edge-T-Shirt, (C) Canonical

Für Unterstützer der Indiegogo-Kampagne, die kein Smartphone haben wollen (oder denen der Preis immer noch zu hoch ist), gibt es inzwischen ein T-Shirt für 50 US-Dollar, was im September 2013 verschickt wird, wenn die Kampagne erfolgreich ist.

Schaut man sich den Kurvenverlauf der Spenden der letzten Tage an, sieht man, dass die T-Shirts zwar eine nette Idee sind, aber die bisher ca. 640 Bestellungen (entspricht 38000 US-Dollar) die Kampagne nicht so sehr voran bringen. Dagegen sieht man im Verlauf, dass mit dem neuen Preis für das Ubuntu Edge von 695 US-Dollar wieder ein kleiner Anstieg zu verzeichnen ist.

Insgesamt hängt die Kampagne ihrem aktuellen Soll von 20 Millionen US-Dollar um etwas mehr als 10 Millionen hinterher. Gegebenenfalls erreicht man so aber noch den Crowdfunding-Rekord der Pebble-Armbanduhr, die innerhalb eines Monats 10,2 Millionen sammelte.

Bloomberg gibt 80000 US-Dollar

Letzte Woche gab es auch einen kräftigen Schub für das Ubuntu Edge, als das Medienunternehmen Bloomberg L.P. das erste „Enterprise 115 Bundle“ erstand. Im Gegenzug für die gespendeten 80000 US-Dollar gibt es 115 Ubuntu Edges inklusive 30 Tage Online-Support, die Geräte in die eigene Firma zu integrieren. Man kann gespannt sein, ob weitere große Firmen folgen und das Ubuntu Edge ebenfalls unterstützen.

Links

9. August 2013

Die schlechte Nachricht: Opera gibt es seit Version 15 nur noch für Windows und Mac. Die gute Nachricht: das erspart den Linuxern bis auf Weiteres den Schock, sich den arg gestutzten Browser anzutun.

Opera 15 markierte das Ende und den Neuanfang des traditionell bei ambitionierten Internetnutzern beliebten Browsers. Nach jahrelanger Eigenentwicklung von Browser und Browsertechnik hatte Opera kürzlich seinen bisherigen Desktop-Browser komplett aufgegeben. Beim aktuellen Opera handelt es sich nunmehr nur noch um einen Chrome-Klon.

Opera war der letzte echte Closed-Source-Browser für Linux, und einst auch der einzige, der kostenpflichtig angeboten wurde. Er war lange vor dem Auftauchen von Chrome, der jedoch im Wesentlichen auf freier Software basiert, der kommerzielle Browser für Linux schlechthin. Gleichzeitig war es unter Linux der einzige Browser, der wie der Internet Explorer mit MHT-Dateien (als eine Datei gespeicherte Webseite) umgehen konnte.


Nein.

Abgesehen davon, dass es sich um ein proprietäres Programm handelte, war die Linux-Unterstützung ausgezeichnet. Während vor einigen Jahren Linux zwar unterstützt, aber oft nicht mit Priorität behandelt wurde, war der Linux-Support zuletzt absolut mustergültig. Opera-Anwender konnten beim Herunterladen zwischen allen möglichen Paketformaten und Distris wählen, RPM, DEB und klassisches Archiv, und auch exotische Distributionen waren im Download-Dialog verfügbar. Auch stand ein Opera-eigenes Repositorium z.B. für die Verwendung mit Ubuntu zur Verfügung, über das das Programm installiert und aktuell gehalten werden konnte. Die Linux-Versionen erschienen gemeinsam mit den Veröffentlichungen für die anderen Plattformen. Opera integrierte sich nahezu perfekt in die großen Desktopumgebungen KDE und Gnome, z.B. mit Unterstützung der nativen Datei-Dialoge und der Verwendung der vom Nutzer eingestellten Themes. Gnome und KDE wurden gleichberechtigt unterstützt, unter Gnome wirkte Opera wie ein GTK-Programm, unter KDE wie für KDE gemacht.

Als Anfang des Jahres angekündigt wurde, dass Opera die Rendering-Engine wechselt, war noch nicht abzusehen, was das für Linux bedeuten würde. Manche hofften nur auf einen Austausch der Rendering-Engine unter Beibehaltung der bewährten Opera-Oberfläche, doch inzwischen ist klar, dass es sich bei künftigen Opera-Versionen um eine komplette Neuentwicklung handelt. Die Opera-Oberfläche war so verwoben mit der bisher genutzten Presto-Engine, dass man nicht einfach nur den Unterbau durch Webkit/Blink ersetzen konnte.

Was ist nun mit den Linux-Versionen? Opera 15 und 16 erschienen nicht für Linux, und auch Opera 17 wird nur für Windows und Mac bereitstehen. Da auch Chrome für Linux zur Verfügung steht, kann es doch nicht so schwierig sein, auch Opera für Linux bereitzustellen, könnte man meinen. Doch das stimmt nur teilweise: Chrome ist relativ wählerisch, auf welchen Distributionen es sich installieren lässt, die neuesten Versionen laufen auch nur auf aktuellen Distributionen. Da Opera auch ein eigenes Menü verwendet, das in den Fenstermanager integriert ist, entstehen auch hier Probleme, will man nicht nur eine Desktopumgebung unterstützen.

Die Ressourcen bei Opera scheinen gerade in Anbetracht der massiven Umstellung der technischen Basis begrenzt zu sein – und Linux wird dabei definitiv keine wichtige Rolle beigemessen. Im Mai betonte Opera-Mitarbeiter Daniel Aleksandersen zwar, dass Linux ein wichtiger Bereich sei und dass an einer Linuxversion gearbeitet werde,

It is an important market for us, and we are still working on it.

um im Juni noch einmal zu präzisieren, dass es Opera 15 nicht als Linuxversion geben werde, da man sich aktuell auf die Hauptplattformen konzentrieren müsse.

There will not be one for the first release. Our efforts are focused on the majority platforms for the time being. (…) That requires hard decisions and focus.

Anfang Juli dann war im Opera-Entwickler-Blog zu lesen, dass eine auf Chromium basierende Opera-Version für Linux geplant sei.

We are planning to release a Chromium-based Opera for Linux, but it’s not ready yet.

Seitdem hat man bezüglich der Linuxunterstützung von Opera nichts mehr gehört. Opera 16 erschien abermals nur für Windows und Mac und auch für die kommende 17er-Version wurde kein Linux-Build bereitgestellt. Die Ergebnisse sprechen eine eindeutige Sprache. Es könnte durchaus passieren, dass Opera entscheidet, die Linuxunterstützung angesichts der geringen Verbreitung doch auslaufen zu lassen. Wenn es jedoch einmal wieder eine Linux-Version geben wird, dann hat Opera ein für allemal deutlich gemacht, für wie relevant man die Linuxnutzer hält. Ein deutlicheres Signal, sich lieber einen anderen Browser zu suchen, kann man den Linuxanwendern kaum geben.


Pawel Pawlaks Vorschlag für ein neues Opera-Logo

So etwas gab es bei Opera das letzte Mal, als Opera 7 aktuell war. Damals erschienen die Windows- und Mac-Versionen nach größeren Umbauten zuerst, die Linux-Variante wurde später nachgereicht. Dies hat sich seitdem nicht mehr wiederholt, Opera setzte den Fokus seitdem auch auf parallele Entwicklung für Linux. Bis heute. Opera schafft sich damit einen Wettbewerbsnachteil, denn sowohl Firefox als auch Chrome sind plattformübergreifender verfügbar. Es ist daher anzunehmen, dass es irgendwann auch wieder einmal eine Opera-Version für Linux geben wird – doch wann das sein wird, das steht in den Sternen. Nachdenklich macht dabei vor allem auch, dass auch „Opera Mail“, das im Grunde nur ein kastriertes Opera 12 ist, nur für Windows und Mac veröffentlicht wurde.

Wenn es dann doch wieder Opera für Linux geben sollte, dann werden sich viele ehemalige Opera-Nutzer wahrscheinlich schon längst einen neuen Browser gesucht haben – und wenig Verlangen verspüren, zu einem Produkt zurückzukehren, das mit dem ursprünglichen, altbekannten Opera sowieso nicht mehr viel zu tun hat. Mail und RSS sind nicht mehr Bestandteil des Produktes, MHT wird nicht mehr unterstützt und auch so ziemlich alles andere, was Opera 12 ausmachte, ist verschwunden. Die bisherigen Nutzer sind teils fassungslos. Vor allem die anpassbare und flexible Oberfläche, die Seitenleiste und Panels und all die kleinen Details, weswegen man Opera schätzen gelernt hatte und deretwegen man sogar Defizite bei der eigentlichen Aufgabe des Browsers, der Webseitendarstellung, hinnahm, sind Geschichte. Der Witz schlechthin ist, dass sogar die Lesezeichen dem Mainstream geopfert werden sollten, da sie angeblich kaum genutzt würden. Das haben nicht einmal Chrome und Gnome-Webbrowser Epiphany gewagt.

Opera hat die Zielgruppe gewechselt, weg vom informierten User, der seinen Browser selbst einstellt, hin zum Gnome-artigen Prinzip der Reduzierung aufs Wesentliche, und zielt wie die Konkurrenz nun auch auf den 0815-User. Opera will kein Nischenbrowser mehr sein – das bekommen Linuxnutzer gerade doppelt zu spüren. Diese haben einstweilen nur zwei Möglichkeiten, wenn sie weiterhin E-Mail und RSS applikationsgebunden im Browser integriert haben möchten: das alte Opera noch eine Weile weiternutzen, bis die Entwicklung endgültig eingestellt wird – oder auf Seamonkey umsteigen.

Ich plane ein kleines Quiz zu veranstalten und suche dafür Nerd-Fragen, d.h. alles rund um (SciFi-)Serien, Filme, Comics und popkulturelles Wissen. Ich habe schon im Netz gesucht und auch ein paar Trivia-Apps gefunden, aber keine Fragen unter einer freien Lizenz.

Weiß jemand, ob es so ein Projekt schon gibt? Eigentlich ist das Thema ja prädestiniert dazu, um es in der Linux-Community umzusetzen. Es würde mich wundern, wenn das noch niemand getan hätte.

Ansonsten würde ich so ein Projekt aufzuziehen, wenn es das noch nicht gibt. Ggf. hat jemand Lust, mitzumachen, sich Fragen auszudenken.

8. August 2013

„Off-the-Record Mes­sa­ging“ ist eine schöne Sache, allerdings nutzen die wenigsten Menschen ihre Chatprogramme nur am Desktop. Auch die Mobilgeräte wollen bedient werden. Hier bietet sich für Android die App Xabber an. Dabei handelt es sich um einen freien XMPP Client welcher unter der GPLv3 lizenziert ist.

Xabber Xabber
Preis: Kostenlos

Der Quelltext von Xabber kann dabei auf Github bezogen werden. Neben den Standardfeatures bietet Xabber auch OTR-Integration. Nachdem man Xabber installiert und einen Account eingerichtet hat, muss nur noch OTR aktiviert werden. Dazu öffnet man die Einstellungen und wählt dort den Punkt Sicherheit aus.

Die Sicherheitseinstellungen von Xabber

Die Sicherheitseinstellungen von Xabber

Dort kann dann der OTR-Modus festgelegt werden. Zur Auswahl stehen dabei „deaktiviert“, „manuell“, „automatisch“ und „erforderlich“. Wenn der passende Modus ausgewählt wurde, kann die Kommunikation mittels OTR beginnen (außer man stellt den Modus auf „deaktiviert“). Im manuellen Modus kann OTR Kommunikation dabei über die Menütaste im Chat aktiviert (Mehr -> OTR Verschlüsselung) werden.

In seinem Blogpost “Diaspora… Ein Gezeitenwechsel?” hat Marc die dezentrale Open Source Alternative zu G+ und Facebook bereits kurz beschrieben und einen kurzen Kommentar zu den einzelnen Funktionen und Bereichen des Netzwerks abgegeben. Lest euch den Beitrag am besten gleich mal durch, um einen Einblick in das Thema zu bekommen.

Vor etwa 11 Tagen habe  ich meine Aktivitäten auf dem deutschen Diaspora Pod “pod.geraspora.de” wieder aufgenommen und beschlossen, meine “Social-Network-Aktivitäten” dorthin zu verlagern. Bisher war ich fast nur auf Google+ unterwegs, aber wegen der stetig abnehmenden Qualität des Netzwerks habe ich mir Diaspora nochmal genauer angeschaut, nachdem mein Account dort fast ein Jahr lang brach lag.

Seit meinem letzten Besuch auf dem Diaspora Pod hat sich kaum etwas getan. Keine Änderung an der Software, die mir direkt ins Auge gestochen wäre. Alles war wie vorher – und bis jetzt habe ich keine Änderung gefunden. Ok, das System scheint jetzt zuverlässiger und stabiler zu laufen, aber an den Features hat sich nichts geändert. Die Arbeiten am Diaspora Projekt laufen sehr langsam, was zwei Seiten hat. Einerseits muss man sich als Benutzer nicht ständig umgewöhnen (vgl. Google+), andererseits dauert es lange, bis neue Funktionen eingeführt oder vorhandene verbessert werden.
Warum die Arbeiten so langsam vorangehen, weiß ich nicht. Vermutlich ist das Interesse am Diaspora Projekt zu gering und es stehen nicht genug Entwickler zur Verfügung. Möglicherweise wurde es auch schon insgeheim aufgegeben. Die Gründer von Diaspora haben dem Projekt jedenfalls den Rück zugewandt und sind seit einiger Zeit mit einem anderen, kommerziellen Projekt beschäftigt. Das Projekt wurde an die Community übergeben, nur die ist entweder überfordert oder schlecht organisiert.
Ich habe aber gehört, dass demnächst eine neue Einzelbeitragsansicht in Diaspora eingeführt werden soll. Es tut sich also doch was… wenn auch langsam. Den zeitlichen Verlauf der Aktivitäten kann man sich übrigens hier auf der Projektseite bei GitHub ansehen: https://github.com/diaspora/diaspora/graphs

In diesem Post will ich ebenfalls kurz meine Meinung zu Diaspora abgeben. Nachdem ich dort wieder für ein paar Tage aktiv war, hat sich meine Meinung etwas geändert. Es dauert ein bisschen, bis man sich auf das System “Diaspora” umgestellt hat, denn es fehlen an allen möglichen Stellen Funktionen, die man von der Konkurrenz kennt. Dieses Social Network ist anders. Dennoch gibt es Dinge, die ich zu bemängeln habe; damit fange ich an.

… was an Diaspora noch verbessert werden muss.

Am meisten fehlt mir die Möglichkeit, Beiträge und Kommentare nach dem Verfassen und Abschicken korrigieren zu können. Bei G+ ist das problemlos möglich. Diese Funktion habe ich sehr häufig genutzt. Seien es schlechte Formulierungen, Falschaussagen, die ich korrigieren wollte oder einfach nur Tippfehler. Ich weiß nicht, ob man bei Facebook Beiträge und Kommentare bearbeiten kann. Aber diese Funktion geht mir wirklich ab. Wäre schön, wenn man dem Benutzer in Zukunft die Möglichkeit geben würde, seine Beiträge zu bearbeiten. Das Ergebnis: Ich achte vor dem Absenden mehr darauf, dass alles okay ist und nutze ggf. die vorhandene Vorschaufunktion (die G+ wiederum nicht bietet ;) )

Der Zweite Kritikpunkt betrifft das “Weitersagen” / Teilen von Beiträgen. Wenn mit ein Beitrag besonders gut gefällt und ich der Meinung bin, dass ihn mehr Leute sehen sollten, kann ich einen Beitrag weitersagen. Das funktioniert aber nur bei öffentlichen Beiträgen; bei eingeschränkt geteilten Beiträgen steht diese Funktion nicht zur Verfügung. Okay, damit kann ich mich noch abfinden. Das kommt vielleicht daher, weil privat geteilte Beiträge auch wirklich privat bleiben sollen. Gut, versteh ich. Aber:
Warum kann ich weitergesagte Kommentare nicht gleich auch noch kommentieren? Bei G+ war es möglich, über den eigentlichen, zu teilenden Beitrag noch kurz ein Statement abzugeben. War sehr praktisch, wenn man noch etwas dazu zu sagen hatte. Das geht bei Diaspora nicht – zumindest wird das nicht nativ unterstützt. Ein “Zitierscript” kann hier aber Abhilfe schaffen aber es wäre besser, so etwas direkt in das Netzwerk einzubauen.

Gefällt ein Beitrag, dann kann man das zeigen, indem man den “Gefällt mir” Link klickt. Ja, es ist ein Link, kein Button ;)
Was ist aber mit Kommentaren? Die kann man nicht liken, denn ein solcher Link fehlt bei den Kommentaren. Schade, denn oftmals geben User sehr gute Kommentare ab, bei denen man beispielsweise seine Zustimmung zeigen will.
Marc meint dazu, dass das nicht so tragisch sei, weil ja dazu ermuntert werden solle, selbst einen Kommentar abzugeben und nicht stupide einen Kommentar zu “liken”. Das Argument kann ich verstehen… aber trotzdem fehlt mir der Like-Link irgendwie… man kann sich aber daran gewöhnen.

Manchmal will man jemanden erwähnen, damit er den Post nicht verpasst und weiß, dass es gerade um ihn geht. Auch in Diaspora kann man erwähnen; allerdings nur im Hauptbeitrag. In den Kommentaren kann man sich nicht gegenseitig ansprechen. Das wäre noch eine Sache, die meiner Meinung nach eingeführt werden sollte. In seinem Beitrag gibt auch Marc einen Kommentar dazu ab:

“Diaspora* setzt dabei auf #Hashtags und @Mentions (die allerdings nur in den Eingangsposts möglich sind. Das ist beabsichtigt, um zu vermeiden, dass Leserechte durch spätere @Mentions korrumpiert werden).”

… dem könnte man aber entgegenwirken, indem Personen, die für den Hauptbeitrag keine Leseberechtigung haben, bei einem @ nicht benachrichtigt werden bzw. auch im Nachhinein keine Leserechte bekommen. Nur jene, die die Leseberechtigten sind, können sich untereinander erwähnen. Wäre doch eine Lösung, oder? :)

Diaspora BenachrichtigungenWo wir schon bei den Benachrichtigungen sind… das Benachrichtigungssystem ist auch verbesserungswürdig. Die Benachrichtigungen werden in einem kleinen Fenster der Reihe nach aufgelistet. Dabei werden sie markiert; je nachdem, ob man eine Benachrichtigung schon wahrgenommen / bearbeitet hat. Komischerweise werden alle aktuellen Benachrichtigungen nach ein paar Sekunden als gelesen markiert und ich weiß dann nicht mehr, welche ich mir noch ansehen sollte. Auch eine kleine Ansicht vom betroffenen Beitrag wäre wünschenswert, damit man gleich weiß, um was es geht. Derzeit stehen nur Sätze im Fenster wie “xyz gefällt dein Beitrag.” “Beitrag” ist dabei verlinkt mit dem Beitrag, um den es geht. Das heißt: Ich muss bei jeder Benachrichtigung erst einmal den Link aufrufen, um überhaupt zu wissen, was Sache ist. Das kann mit der Zeit extrem nervig werden.

… was Diaspora besser macht als andere Netzwerke

Kommen wir jetzt aber zu den Aspekten, die ich an Diaspora mag.
Das wohl wichtigste Argument für Diaspora ist die Unabhängigkeit und der dezentrale Aufbau des gesamten Diaspora Netzwerks. Man ist nicht an einen Server oder einen Anbieter gebunden, sondern kann sogar seinen eigenen Pod aufsetzen (So heißen die Diaspora Server). Seine Daten gibt man nicht in die Hände eines großen Internetkonzerns, sondern oft in die Hände von Privatpersonen, die sich ihrer Verantwortung aber durchaus bewusst sind. Da man aber die Wahl hat, kann man sich seinen Hoster selbst aussuchen und entscheidet, wem man die privaten Daten anvertrauen will.

Was man postet, wird von keiner Software analysiert und ausgewertet: Niemand schlägt Profit aus dem, was die Nutzer posten. Für Datenschutz ist also bestens gesorgt. Vorausgesetzt natürlich, der Betreiber des Pods geht verantwortungsvoll mit den Nutzerdaten um. Wenn man niemandem traut, hat man aber immer noch die Option, sich einfach selbst zu vertrauen und seinen eigenen Pod aufzusetzen ;)

Diaspora ist außerdem ein Open Source Projekt. Ich bin ein großer Fan von Open Source Software. Sie fördert internationale Zusammenarbeit, und verbindet viele Menschen. Der Nutzer kann kontrollieren, wie die Software funktioniert, die er nutzt, und hat die volle Kontrolle über sie. Code kann nicht versteckt werden; jeder sieht alles. Und das ist auch gut so. Backdoors werden unmöglich gemacht und Sicherheitslecks schneller gefunden und gefixt. Viele Augen sehen mehr als eins. Das dürfte bekannt sein ;) Wer Diaspora nutzt, zeigt damit, dass er hinter dem Gedanken von Open Source Software steht und diese unterstützt. Eine tolle Möglichkeit, Open Source Software erfolgreich zu machen, ohne selbst dafür entwickeln zu müssen.

Neben den positiven, ideellen Aspekten hat Diaspora aber auch noch andere tolle Merkmale. In den Stream lassen sich nicht nur sog. Aspekte (Nutzergruppen) integrieren, sondern auch Hashtags. Wenn sich jemand für Linux interessiert, kann er z.B. dem Hashtag “#Linux” folgen und bekommt dann immer aktuelle, passende Beiträge in seinen Stream. Unter dem Hashtag “#neuhier” kann man übrigens neue Diaspora-Nutzer begrüßen :)

Der Stream ist übrigens sehr aufgeräumt und vor allem: Sauber chronologisch geordnet. Im Gegensatz zu Google+ hat hier kein Algorithmus seine Finger im Spiel, der meint, meine Beiträge je nach der von ihm festgelegten Priorität sortieren zu müssen. Google Plus ist in den letzten Wochen fast nicht mehr vernünftig nutzbar geworden. Ständig verpasst man Beiträge oder findet sie nicht mehr, sollte man ihn doch noch einmal ansehen wollen. Der Stream ist ein einziges Durcheinander, in dem man sich kaum mehr zurechtfindet.

Aber das ist noch nicht alles. Zwischen den Beiträgen tauchen auf immer wieder Beiträge fremder Nutzer auf, die einen eigentlich gar nicht interessieren. Warum? Weil jemand aus den eigenen G+ Kontakten diesen einen Beitrag “geplusst” hat. Deshalb wird er einem jetzt auch angezeigt mit dem Hinweis: “xzy hat +1 für diesen Beitrag gegeben.” Also ob mich das interessieren würde. Mit der Einführung dieses “Features” hat sich Google dem Konkurrenten Facebook nochmal ein ganzes Stück angenähert. Kann ich aber absolut nicht brauchen. Ich will in meinem Stream, was ich in meinem Stream will, und nicht, was eine Maschine oder ein anderer denkt, das ich in meinem Stream will. Eh… also… Ihr wisst, wie ich meine. Ich will selbst entscheiden, was ich zu Gesicht bekomme.

… Gut, dass es da Diaspora gibt. Ein ordentlicher, einspaltiger Stream, der nur das enthält, was meine Kontakte von sich geben. Keine Hinweise auf irgendwelche Spielchen oder Spieleeinladungen (die es bei Diaspora übrigens nicht gibt), keine Einladungen in Communities und zu Veranstaltungen.

Wie schön, man hat endlich seine Ruhe und bekommt, was man haben will. Diaspora erinnert mich manchmal an die erste Version von Google+. Damals war die Welt noch gut und Google+ ebenfalls. Das hat sich aber Monat für Monat geändert und jetzt ist Google+ nichts mehr weiter als eine geschminkte Facebook-Kopie. Schade.

Ich werde mich auf alle Fälle in Zukunft mehr an Diaspora orientieren, denn G+ ist mir schön langsam zu blöd. Wer sich gerade überlegt, ob er auch mal Diaspora ausprobieren soll: Ja. Probiert es bitte aus. Die Erfahrung ist eine Registrierung wert.
Mein Profil findet ihr hier: https://pod.geraspora.de/u/thomas_leister und meine Diaspora ID ist thomas_leister@pod.geraspora.de .

An alle Diaspora-User: Was stört euch an Diaspora? Was würdet ihr euch noch wünschen? Was findet ihr besonders toll an Diaspora? Ab damit in die Kommentare, es interessiert mich! :)

7. August 2013

Gestern hatte ich mit einem Fehler auf einem Linuxsystem zu kämpfen den ich nicht so richtig einordnen konnte. Ich war mir aber sicher das der Fehler unter /var/log mitprotokolliert wird. Nur wo…?

Oftmals lass ich mir die letzten Zugriffe auf /var/log mit folgendem Befehl anzeigen:

ls -ltr

Dabei steht -t für sortieren nach Zugriffszeit und -r für reverse, also in umgekehrter Reihenfolge so das der letzte Zugriffszeitpunkt unten angezeigt wird wo ich auch meinen Prompt vorfinde.

Wenn ich allerdings mehrere Unterordner nach dem letzten Zugriffszeitpunkt durchsuchen möchte klappt das nicht so richtig und auch die Option -R (rekursiv alle Unterordner durchsuchen) zeigt mir immer nur Ordnerweise die letzten Zugriffszeitpunkte an.

Da meine Applikation aber in mehrere Verzeichnisse protokolliert wollte ich von mehreren Unterverzeichnissen die Datei mit dem letzten Zugriffszeitpunkt. Mein Kollege (danke an dieser Stelle an Dirk) half mir hier etwas auf die Sprünge. Er stellte folgenden find Befehl zusammen:

find -type f -exec ls -t --full-time '{}' \; | cut -d " " -f 6- | sort

Super Ding!

Kennt jemand ne Alternative? Wir sind für Verbesserungsvorschläge dankbar…