ubuntuusers.de

11. März 2011

10. März 2011

Vor ein paar Tagen hatte ich hier ja schonmal erwähnt, dass ich mir ein paar E-Books für das Wildfire erstellt habe. Und ich muss zugeben: es macht wirklich Spaß dort zu lesen. Mein Bedenken war, dass der Bildschirm zu klein ist um da wirklich sinnvoll lesen zu können, dem ist aber nicht so.

Cool Reader Android

Android-Screenshot

Bisher habe ich dafür Laputa in der kostenlosen Version verwendet. Allerdings musste ich feststellen, dass die App ziemlich viel Speicher und auch reichlich Akku verbraucht.

Deshalb habe ich mich nun mal umgesehen und Cool Reader installiert. Die Einstellungsmöglichkeiten hier scheinen fast unbegrenzt und es scheint auch wesentlich weniger Speicher zu verbrauchen. Was den Akku angeht kann ich da allerdings noch nichts zu sagen. Dazu muss ich aber erstmal etwas längeres mit der App lesen.

Gut finde ich hier jedenfalls die Möglichkeiten unterschiedliche augenfreundliche Hintergründe und Hintergrundfarben einzustellen. Bei Laputa hat man lediglich die Wahl zwischen Tag und Nacht. Außerdem öffnet der Cool Reader die Bücher schneller und man muss sie nicht erst in die Bibliothek einlesen, sondern direkt von der Speicherkarte aus öffnen.

Insgesamt eine ziemlich nette App zum Lesen von E-Books. Ich werde mir aber sicherlich noch die eine oder andere App anschauen – es kann ja immer sein, dass man noch etwas besseres findet.

Cool Reader unter Ubuntu

Auf der offiziellen Website findet man den Cool Reader übrigens auch für Windows und Linux, für Ubuntu sogar als vorgefertigtes Paket. Auf dem ersten Blick scheint es doch eine recht gute Alternative zum FBReader zu sein. Das ganze sieht dann so aus:

Cool Reader Ubuntu

Dass man bei Fremdpaketen dennoch vorsichtig sein sollte möchte hier auch nochmal erwähnen, auch wenn das den meisten wohl bekannt sein sollte.

Wenn man ein paar E-Books kostenlos herunterladen möchte kann man sich ruhig mal diese Liste anschauen und auf den aufgeführten Seiten suchen. Ich denke aber, dass sich das nur lohnt wenn man auch auf englisch lesen möchte. In deutscher Sprache habe ich bisher nirgendwo etwas sinnvolles gefunden.

…ist eine schöne Sache. Für 8,55€ pro Monat bin ich mit Hide My Ass anonym im Internet unterwegs.  Bis vor kurzem war mir das noch egal wenn jedermann meine IP sehen konnte, aber Dinge wie “Dieses Video ist in Deinem Land nicht verfügbar” , oder die Herausgabe von Besucher IP’s an private Unternehmen haben mich umdenken lassen. Ich nutze den Dienst seit einer Woche. Ob ich mit meiner Anonymität zufrieden bin kann ich noch nicht sagen;). Ich habe einen DSL 6000 von der Telekom und merke keine Geschwindigkeitseinbußen mit dem VPN.

Weil ich auch mal vor anderen Rechnern sitze, schreibe ich hier mal den Schnelldurchlauf für den Gnome Networkmanager auf. Die Konfiguration ist trivial. Ich möchte sie nur an einer für mich prominenten Stelle festhalten.

Ip’s + Login Details findet man im Account bei Hma. Dort kann man auch Clients für andere “Betriebssysteme”  herunterladen und Anleitungen zur Verwendung mit Android Geräten nachlesen.

Klickdichdurch

Auf das Networkmanager Icon klicken, VPN, VPN konfigurieren.

Bei Gateway die gewünschte IP eingeben.

Nun auf Advanced klicken, Häckchen entsprechend dem Screenshot setzen, fin


Am Ende steht natürlich noch eine Funktionsprüfung an. Bei mir Zuhause ist das einfach.

Ich habe auf meinem PC einen alias eingerichtet. Damit bekomme ich meine “Public Ip”:

alias wieistmeineip=’curl icanhazip.com’

Da auf dem Rechner der Tunnel eingerichtet ist, muß curl icanhazip.com also auf anderen Rechner in meinem Netz eine andere IP ausspucken. Da ich keine Alias Befehle an ssh hängen kann lege ich auf einem anderen “Rechner” diesen schnelldreckigen Befehl an:

slug:~# echo -e ‘#!/bin/bashncurl icanhazip.com’ >/bin/wieistmeineip
slug:~# chmod +x !$

Wenn nun eine andere IP ausgegeben wird ist alles im grünen Bereich:

ms@nostromo:~$ ssh slug wieistmeineip

Nun hänge ich meinem Rattenschwanz an Alias Anweisungen noch eine weitere an:

alias vpninuse=’wieistmeineip && ssh slug wieistmeineip’

Wenn der Befehl 2 unterschiedliche Zahlenfolgen auflistet bin ich über VPN unterwegs. Zum Ende bleibt mir noch die obligatorische Frage, ob Ihr auch einen solchen Dienst nutzt und wie zufrieden Ihr damit seid.

Onlinefestplatten sind ja eine feine Sache: Überall hat man seine Daten verfügbar geschützt gegen Brand, Erdbeben und vieles mehr. Doch ein schaler Nachgeschmack bleibt. Schließlich liegen die Daten auf der Onlinefestplatte unverschlüsselt. Das ist natürlich unschön, aber hier kann man zum Glück Abhilfe schaffen.

Bei der Verschlüsselung von Daten gibt es im groben zwei Ansätze was das Wie betrifft. Einmal gibt es Software welche große Container anlegt in welchen das gesamte Dateisystem gespeichert ist. Das ist natürlich sehr schön, online allerdings relativ unpraktikabel. Man stelle sich vor man möchte einen 4 TB Container anlegen, das könnte über die Onlineverbindung eine ganze Weile dauern.

Die ändere Möglichkeit wäre es nur die Dateien zu verschlüsseln z.B. mit GPG, allerdings wäre diese Methode doch recht manuell. Eine schöne Zwischenlösung sind Systeme wie EcryptFS oder EncFS. Hier wird ein Verzeichnis verschlüsselt und zwar Datei für Datei (die Dateinamen werden dabei auch verschlüsselt). Das schöne an der Sache ist das es fast automatisch funktioniert.

Zuerst soll die Onlinefestplatte per WebDAV eingebunden werden. Im zweiten Schritt wird dann der verschlüsselte Ordner aufgesetzt. Für WebDAV wird zuerst das Paket davfs2 mittels

sudo apt-get install davfs2

installiert. Anschließend tragen wir in die /etc/fstab folgendes ein:

https://”webdavurl” “mountpunkt” davfs user,noauto 0 0

z.B. https://webdav.example.com /home/seeseekey/Online davfs user,noauto 0 0

Nun wird mittels:

sudo dpkg-reconfigure davfs2

das Paket rekonfiguriert. Auf die anschließende Frage antworten wir mit Ja. Damit ist das SUID-Bit für davfs2 gesetzt.

Nun wird mittels

sudo adduser “Nutzername” davfs2

z.B. sudo adduser seeseekey davfs2

der entsprechende Nutzer der Gruppe davfs2 hinzugefügt. Damit kann man das ganze nun auch ohne root Rechte mounten. Nun legt man in seinem Homeverzeichnis den Ordner .davfs2 an und in diesem erstellt man eine Datei namens secrets. Das ganze sollte dann also unter ~/.davfs2/secrets zu finden zu sein. In diese Datei trägt man nun folgendes ein:

“Mountpunkt” “login” “passwort”

z.B. /home/seeseekey/Online seeseekey@example.com geheim

ein und speichert das ganze. Die Rechte der Datei werden nun mittels

chmod 600 ~/.davfs2/secrets

auf das nötigste beschränkt.

Nun erstellen wir den Mountpunkt und mounten das Verzeichnis:

mkdir -p ~/Online
mount ~/Online

Nachdem das geschafft ist wird das Paket encfs mittels

sudo apt-get install encfs

installiert.

Mittels

encfs ~/Online/.private ~/Online/private

erstellen wir nun das verschlüsselte Verzeichnis. Dabei wird es auch gleich gemappt. In den Ordner ~/Online/private können wir nun die Dateien kopieren welche verschlüsselt werden sollen.

Das Skript zum mounten nach einem Neustart würde dann so aussehen:

mount ~/Online
encfs ~/Online/.private ~/Online/private

Und schon verfügt man über ein verschlüsseltes WebDAV Laufwerk :)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/webdav
http://de.wikipedia.org/wiki/EncFS
http://wiki.ubuntuusers.de/EncFS
http://neuntoeter.wordpress.com/2010/07/31/verschluesselte-online-backups/

Onlinefestplatten sind ja eine feine Sache: Überall hat man seine Daten verfügbar geschützt gegen Brand, Erdbeben und vieles mehr. Doch ein schaler Nachgeschmack bleibt. Schließlich liegen die Daten auf der Onlinefestplatte unverschlüsselt. Das ist natürlich unschön, aber hier kann man zum Glück Abhilfe schaffen.

Bei der Verschlüsselung von Daten gibt es im groben zwei Ansätze was das Wie betrifft. Einmal gibt es Software welche große Container anlegt in welchen das gesamte Dateisystem gespeichert ist. Das ist natürlich sehr schön, online allerdings relativ unpraktikabel. Man stelle sich vor man möchte einen 4 TB Container anlegen, das könnte über die Onlineverbindung eine ganze Weile dauern.

Die ändere Möglichkeit wäre es nur die Dateien zu verschlüsseln z.B. mit GPG, allerdings wäre diese Methode doch recht manuell. Eine schöne Zwischenlösung sind Systeme wie EcryptFS oder EncFS. Hier wird ein Verzeichnis verschlüsselt und zwar Datei für Datei (die Dateinamen werden dabei auch verschlüsselt). Das schöne an der Sache ist das es fast automatisch funktioniert.

Zuerst soll die Onlinefestplatte per WebDAV eingebunden werden. Im zweiten Schritt wird dann der verschlüsselte Ordner aufgesetzt. Für WebDAV wird zuerst das Paket davfs2 mittels
sudo apt-get install davfs2
installiert. Anschließend tragen wir in die /etc/fstab folgendes ein:
https://"webdavurl" "mountpunkt" davfs user,noauto 0 0

z.B. https://webdav.example.com /home/seeseekey/Online davfs user,noauto 0 0
Nun wird mittels:
sudo dpkg-reconfigure davfs2
das Paket rekonfiguriert. Auf die anschließende Frage antworten wir mit Ja. Damit ist das SUID-Bit für davfs2 gesetzt.

Nun wird mittels
sudo adduser "Nutzername" davfs2

z.B. sudo adduser seeseekey davfs2
der entsprechende Nutzer der Gruppe davfs2 hinzugefügt. Damit kann man das ganze nun auch ohne root Rechte mounten. Nun legt man in seinem Homeverzeichnis den Ordner .davfs2 an und in diesem erstellt man eine Datei namens secrets. Das ganze sollte dann also unter ~/.davfs2/secrets zu finden zu sein. In diese Datei trägt man nun folgendes ein:
"Mountpunkt" "login" "passwort"

z.B. /home/seeseekey/Online seeseekey@example.com geheim
ein und speichert das ganze. Die Rechte der Datei werden nun mittels
chmod 600 ~/.davfs2/secrets
auf das nötigste beschränkt.

Nun erstellen wir den Mountpunkt und mounten das Verzeichnis:
mkdir -p ~/Online
mount ~/Online
Nachdem das geschafft ist wird das Paket encfs mittels
sudo apt-get install encfs
installiert.

Mittels
encfs ~/Online/.private ~/Online/private
erstellen wir nun das verschlüsselte Verzeichnis. Dabei wird es auch gleich gemappt. In den Ordner ~/Online/private können wir nun die Dateien kopieren welche verschlüsselt werden sollen.

Das Skript zum mounten nach einem Neustart würde dann so aussehen:
mount ~/Online
encfs ~/Online/.private ~/Online/private
Und schon verfügt man über ein verschlüsseltes WebDAV Laufwerk :-)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/webdav
http://de.wikipedia.org/wiki/EncFS
http://wiki.ubuntuusers.de/EncFS
http://neuntoeter.wordpress.com/2010/07/31/verschluesselte-online-backups/

In meinem Artikel zum Advanced Disclaimer für Postfix mit Hilfe von altermime haben sich ein paar kleine Fehler eingeschlichen. Ich habe die Fehler nun korrigiert und den Artikel (den Script Teil) überarbeitet.

Fehler 1:

Die Empfängeraddresse wurde nicht richtig bestimmt

REC_DOMAIN=${2##*@}

muss heißen

REC_DOMAIN=${4##*@}

Fehler 2:

Durch diesen Fehler kann es passieren, dass Mails teilweise ganz abgeschnitten ankommen, bzw. auch teilweise “nur” der Anhang fehlt. Das ganze ist darauf zurückzuführen, dass sich in der Mail – wenigstens dann wenn sie von altermime bearbeitet wurde – eine Zeile mit lediglich einem Punkt befindet. Dies wird von Postfix bei der Rückgabe als “ende” interpretiert. Daher muss der sendmail Aufruf innerhalb des Scripts angepasst werden (3x).

Aus

$SENDMAIL "$@" <in.$$

wird also

$SENDMAIL -i "$@" <in.$$

 

 

Mozilla hat den ersten Veröffentlichungskandidaten des quelloffenen Webbrowsers Firefox 4.0 freigegeben.

Mozilla Firefox Logo

Der erste Release Candidate von Firefox 4.0 beinhaltet bereits alle Funktionen, welche auch das finale Release haben wird. Neben den üblichen Bugfixes wurde der aus den Beta-Versionen bekannte Feedback-Button entfernt.

Ausserdem scheinen die Mozilla-Entwickler an der Startzeit des Browsers gefeilt zu haben – der Veröffentlichungskandidat startet nach dem Klick auf das Icon um einige Sekunden schneller als die zwölfte Betaversion.

Sollte nichts schlimmeres mehr dazwischen kommen, wird die finale Version in ein paar Tagen erscheinen.

Firefox 4.0 Release Candidate 1 kann für die Betriebssysteme Linux, Mac OS X und Windows direkt bei Mozilla heruntergeladen werden. Gemäss Mozilla eignet sich Firefox 4.0 RC 1 aufgrund der Stabilität für den produktiven Einsatz.

Firefox-Tester mit Linux-Betriebssystem müssen sich wahrscheinlich noch einige Tage gedulden, bis die entsprechenden Firefox-Paketquelle ihrer Distributionen aktualisiert ist. Um als Ubuntu-User in den Genuss der neuesten Vorabversion von Firefox 4 zu kommen muss man die folgenden beiden Befehle mit root-Rechten im Terminal nacheinander ausführen:

sudo add-apt-repository ppa:ubuntu-mozilla-daily/ppa && sudo apt-get update
sudo apt-get install firefox-4.0

Anschliessend wird die Firefox 4-Paketquelle (auch “Repository” genannt) in das System eingebunden und Ubuntu lädt sich dann von dieser jeweils automatisch die neueste Vorabversion von Firefox herunter.

Edit: Da die daily-ppa-Paketquelle sehr experimentell ist (sogenannte “daily-builds”) und sich daher nur für Testzwecke eignet, sollte man noch ein paar Tage abwarten, bis die fertige Version von Firefox 4 in den offiziellen Repositories von Ubuntu auftaucht! Für Anfänger und solche die ein stabiles System bevorzugen ist diese Paketquelle keinesfalls gedacht.

Für den Seitenaufbau ist in Firefox 4 RC 1 die Rendering-Engine Gecko 2.0 – welche ebenfalls aus dem Hause Mozilla stammt – verantwortlich. Mozillas Javascript-Engine Jägermonkey soll sogar schneller sein, als diejenige von Google Chrome (V8).

Links
Firefox 4.0 RC 1 Veröffentlichungsnotizen (“Release Notes”)

9. März 2011

Zwei Wochen nach der Veröffentlichung der freien Büro-Suite LibreOffice 3.3.1 hat die Document Foundation die LibreOffice-Box DVD 3.3.1 zum Download freigegeben.

Bei der LibreOffice-Box handelt es sich um den Nachfolger der PrOOo-Box, die aufgelöst wurde, da sich die Entwickler zukünftig voll und ganz auf den OpenOffice.org-Fork LibreOffice konzentrieren wollen.
LibreOffice Logo (The Document Foundation)

Neben den Installationsdateien für GNU/Linux-Distributionen (DEB/RPM), Mac OS X und Windows beinhaltet die LibreOffice-Box unter anderem Dokumentationen, Sprachpakete, Wörterbücher sowie verschiedene Vorlagen.

Besonders praktisch für den alltäglichen Gebrauch sind ausserdem die unzähligen kostenlosen Cliparts, Icons, Logos, Covers und Labels.

Ebenfalls in die Box integriert haben die Entwickler nützliche Open-Source-Programme wie beispielsweise Firefox, Thunderbird, FreeMind, Inkscape, 7-Zip und Ghostscript.

Derzeit wird die Gründung der Document Foundation als nach deutschem Recht anerkannte Stiftung vorbereitet. Die neue Stiftung soll sich zukünftig um die Entwicklung und Verbreitung von LibreOffice sowie um rechtliche Angelegenheiten kümmern.

Der Kapitalstock, welcher für die Gründung der Stiftung notwendig war, wurde mithilfe der Spendenaktion bereits erreicht. Doch nun geht es um die eigentliche Arbeit der Stiftung: Die Förderung von LibreOffice. Deshalb wurde seitens der Document Foundation noch einmal betont, dass alle weiteren Zuwendungen der Büro-Suite zugute kommen werden.

Aufgrund der enormen Dateigrösse empfehlen die Macher der LibreOffice-Box den Anwendern, das 2,6 GB grosse DVD-Image via BitTorrent herunterzuladen, damit die Serverressourcen nicht überlastet werden.

Links
LibreOffice.de
LibreOffice-Box
Spendenseite der Document Foundation

Bookmark and Share

Der Suchmaschinenbetreiber Google hat seinen Browser Chrome nach einer dreiwöchigen Beta-Phase in der finalen Version 10 veröffenlicht.

Chrome basiert auf dem Open-Source-Browser Chromium, welcher genauso wie der Safari-Browser auf Apples schneller Rendering-Engine Webkit aufbaut. Webkit wiederum beruht auf KHTML, ebenfalls eine Rendering-Engine, die – wie der Name bereits vermuten lässt – vom KDE-Projekt abstammt.

Google Chrome Logo (modified)

Bildquelle: Google / cookstdu.wordpress.com

Wie Google in seinem Blog berichtet, soll die Javascript-Engine V8 in Chrome 10 auch bei komplexen Web-Applikationen um bis zu 66% schneller arbeiten.

“Wir haben festgestellt, dass für einen guten Browser nicht nur dessen Geschwindigkeit wichtig ist, sondern auch eine einfach zu bedienende Benutzeroberfläche”, schreibt der Chrome-Entwickler Tim Steele.

Die neu eingebaute Suchfunktion für Optionen erlaubt es den Benutzern, Browser-Einstellungen wie beispielsweise das Importieren von Lesezeichen (siehe Screenshot unten) oder das Ändern der Startseite ohne langes Suchen vorzunehmen.

Google Chrome 10 interface search (screenshot)

Diese Suchfunktion lässt sich aufrufen, indem man den Pfad chrome://settings/search in die URL-Leiste von Chrome 10 eintippt und dann die [ENTER]-Taste drückt (siehe auch YouTube-Video “).

Praktisch finde ich auch, dass die Benutzer-Optionen in Chrome 10 jetzt URL-ähnliche Pfade haben. Diese lassen sich ganz bequem verlinken und man braucht sich nicht mehr mühsam durch die Menüs zu klicken.

Ausserdem hat Google die Synchronisierungsfunktion “Sync” in Chrome integriert. Mit Sync lassen sich die persönlichen Einstellungen (Lesezeichen, Erweiterungen, Themes) mit mehreren Rechnern synchronisieren. Besonders nützlich ist diese Funktion für Anwender, welche ihre Lesezeichen direkt im Browser speichern und oft von einem Computer zum anderen wechseln.

Die persönlichen Einstellungen in Sync lassen sich mit einem Passwort vor fremden Zugriffen schützen. Um Sync nutzen zu können, benötigt man ein Google-Konto und eine aktive Internetverbindung.

In der Windows-Version von Google Chrome 10 wurde das integrierte Flash-Plugin in einen abgesicherten Bereich, eine sogenannte “Sandbox” verlegt, um den Browser zusätzlich vor Angriffen schadhafter Websiten zu schützen (siehe YouTube-Video von Google über “Sandboxing” in Chrome).

Die neueste Version von Chrome kann auf der Seite von Google für alle gängigen Betriebssysteme (Linux, Mac, Windows) heruntergeladen werden.

Anwender, welche Chrome bereits installiert haben, können ihren Browser über die automatische Aktualisierungsfunktion von Google auf den neuesten Stand bringen lassen. Für Linux-Benutzer sollte die 10. Version von Chrome/Chromium bald über die jeweilige Paketquelle ihres Distributors zur Verfügung stehen.

Links:
Google Chrome 10 Announcement/Release Notes

Bookmark and Share

8. März 2011

Ubuntu Natty Narwhal liefert die Java-Engine openjdk aus. Sie wird üblicherweise bei der Grundinstallation moniert. Für eine bestimmte Anwendung benötige ich aber die Sun-Java-Maschine sun-java6-jre, bloss ist die nicht mehr in den Quellen verfügbar. Zum Glück gibt es PPAs und damit auch eine Möglichkeit, die Java-Version nachzuinstallieren. Auf dem Blog multimediaboom.com bin ich dann auch recht schnell fündig geworden:

sudo add-apt-repository ppa:ferramroberto/java
sudo apt-get update
sudo apt-get install sun-java6-jre sun-java6-plugin sun-java6-fonts

Danach musste ich dem System nur noch sagen, welche Java-Version benutzt werden muss. Dass kann man mit dem Befehl tun:

update-alternatives --config java

Und danach klappte das, was ich brauchte. Es handelt sich dabei um eine SSL-VPN-Box aus dem Hause Sonicwall, welche offenbar keine andere Java-Version akzeptiert.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

Manchmal ist es wie verhext, man hat ein Problem, kommt aber irgendwie nicht auf die richtige Lösung und urplötzlich schreibt jemand genau über dieses Problem. Toll :)

Im konkreten Fall geht es darum das nach einer Weile der WLAN Empfang meines Netbooks verschwand und er mich zur Eingabe des WLAN Passwortes auffordert. In diesem Fall lag es wohl daran das der Router nur eine bestimmte Anzahl von WLAN Verbindungen annimmt (Maximum Clients).

Da ich eine Tomatofirmware benutze kann man diesen Wert glücklicherweise problemlos anpassen. Und dann ist das Problem gelöst :) Natürlich ist die Frage wie sich das bei anderen “Standardroutern” verhält. Ich bezweifle mal einfach das diese einem weitreichende Freiheiten geben…

Manchmal ist es wie verhext, man hat ein Problem, kommt aber irgendwie nicht auf die richtige Lösung und urplötzlich schreibt jemand genau über dieses Problem. Toll :-)

Im konkreten Fall geht es darum das nach einer Weile der WLAN Empfang meines Netbooks verschwand und er mich zur Eingabe des WLAN Passwortes auffordert. In diesem Fall lag es wohl daran das der Router nur eine bestimmte Anzahl von WLAN Verbindungen annimmt (Maximum Clients).



Da ich eine Tomatofirmware benutze kann man diesen Wert glücklicherweise problemlos anpassen. Und dann ist das Problem gelöst :-) Natürlich ist die Frage wie sich das bei anderen "Standardroutern" verhält. Ich bezweifle mal einfach das diese einem weitreichende Freiheiten geben...

Hmm, Kamerad Torvalds scheint Abends nichts besseres zu tun zu haben, aber vielleicht ist das Fernsehprogramm an der Ostküste ja genauso schlecht wie unseres.

Linux Kernel 2.6.38-rc8, Darstellung mit gitgHierzulande äußert sich das dann darin, dass ein Blick auf kernel.org um kurz nach sechs Uhr noch keine umwerfenden Neuerungen aufzeigt, beim täglichen git pull zehn Minuten später aber ein Commit mit der Bezeichnung „Linux 2.6.38-rc8“ mitkommt.

Zum -rc8 kam es in erster Linie, weil Torvalds einige Tage nicht erreichbar und ein neues Merge Window damit sinnfrei ist. Zudem gibt es noch Fehler, von denen einige mit -rc8 hoffentlich behoben werden.

Der Patch, um von 2.6.38-rc7 auf -rc8 zu kommen, ist geringfügig größer als der Vorgänger, die Änderungen fallen jedoch wesentlich übersichtlicher aus, kaum ein Commit knackt die 50-Zeilen-Grenze. Einer davon betrifft ein Bandlaufwerk-Treiber auf IBMs Großrechner S/390, ein zweiter betrifft Änderungen an Broadcoms Everest-Gigabit-Netzwerk-Treiber, der dritte das Dateisystem Ceph*.

Alles in allem scheint sich die Entwicklung beruhigt zu haben, ein solcher Patch hätte schon fast als 2.6.xx.1 durchgehen können. Vermutlich wird die nächste Version bereits die finale 2.6.38 sein, darauf weisen auch die Andeutungen Torvalds in der Freigabe-Mail hin.

So please keep testing

Quelle: Linux Kernel Mailing List

* Das ist das Ergebnis eines sehr kurzen Blick in das Kernel-Git, sicherlich blieben dabei bedeutendere Änderungen im Verborgenen.

 

Ich bin heute durch Zufall über ein nettes Firefox Addon gestolpert. It’s all text.

Mit diesem Addon ist es möglich, Texte aus einer Textbox in einem beliebigen Text Editor zu bearbeiten.

It's all Text in Aktion

In einer Textbox wird unten rechts ein kleiner Button angezeigt. Klickt man darauf, wird ein beim ersten mal eingestellter Texteditor geöffnet. In diesem Texteditor kann man dann einen beliebigen Text eingeben. Sobald man den Text speichert wird er in die Textbox übernommen.

Für einfache Beiträge in einem Forum mag das überflüssig sein, aber bei der Eingabe von Sourcecode oder dem Editieren eines Wiki kann das sehr hilfreich sein, da man alle Funktionen des Editors verwenden kann. Ich habe erst kürzlich beim Bearbeiten eines Wiki Beitrags einen Editor zu Hilfe nehmen müssen. Da hätte ich dieses Addon gut gebrauchen können.

Man kann auch Änderungen im Textedit Feld vornehmen. Ein weiterer Klick auf den Edit Button speichert die Änderung und der Editor kann die Ädernung nachladen. Das Übertragen funktioniert also in beiden Richtungen.

[UPDATE] Entgegen dem Hinweis in den Kommentaren speichert das Addon für jedes Textfield eine eigene Datei ab. In meinem Fall in .mozilla/firefox-4.0/txgaarbl.default/itsalltext

It's all Text speichert mehrere Dateien

It's all Text speichert mehrere Dateien

Die Dateien werden beim Schließen des Browsers gelöscht.

7. März 2011

Funktastaturen und -mäuse sind in Sachen Energiehunger heute sicher nicht mehr mit den ersten Exemplaren ihrer Gattung zu vergleichen. Dennoch frage ich mich bei jedem Batteriewechsel, ob “die paar” Tastendrücke und Mausschubser tatsächlich den Batteriehunger meiner handbetätigten Eingabegeräte rechtfertigen.

Wie viele Tastendrücke, Mausklicks und Mausbewegungen so eine Batterie aushält, wäre doch eigentlich interessant zu wissen. Und überhaupt – was setze ich über meine Tastatur täglich so ans System ab?

Zur Beantwortung solcher Fragen gibt es zahlreiche Tools, teilweise sogar für Linux-Systeme. Das Programm “WhatPulse” beispielsweise ist “sogar” Freeware – aber eben auch “nur” Freeware. Als Möchtegern-Entwickler juckt es mich da direkt in den Fingern, mir das gute, alte xlib nochmal anzusehen – da müsste doch was zu machen sein….?

Herausgekommen ist das kleine Programm “pyInputStats”. Es klinkt sich mit der Record Extension (PDF) in die Tastatur- und Mausereignisse ein und kann so Statistiken über Mausklicks, gedrückte Tasten und Cursorbewegungen erstellen. Die Daten werden dabei so einer SQLite-Datenbank abgelegt, dass keine Rückschlüsse auf konkrete Texteingaben möglich sind. Im Normalbetrieb läuft das Programm weitestgehend unsichtbar und legt lediglich ein Icon im Systray ab. Erst nach einem Klick auf das kleine Lineal kommen die Grafiken zum Vorschein.

Was lässt sich mit dem Programm ablesen?

pyInputStats kann die gesammelten Daten auf unterschiedliche Weise darstellen:

  • Gesamtzahl aller Tastenanschläge und Mausklicks. Zurückgelegte Cursor-Meter.
  • Durchschnittliche Cursor-Meter, Tastenanschläge und Mausklicks.
  • Tages-Übersicht: Darstellung dieser Daten für einen bestimmten Tag – mit grafischer Darstellung des Tagesverlaufs.
  • Monats-Übersicht: Grafische Darstellung der Daten über einen gegebenen Monat.
  • Tasten-Statistik: Wie oft wurde welche Taste gedrückt?

Probleme und Anmerkungen

Das Skript ist dahingehend recht effizient, als dass es nicht ständig nach neuen Tasten- und Mausinformationen pollt, sondern sich direkt von der xlib über derartige Ereignisse benachrichtigen lässt. Das ändert natürlich nichts an der Tatsache, dass durch das Skript bei jedem Tastendruck und jeder Mausbewegung verschiedene Zähler hochgezählt werden müssen. In der Praxis macht sich dies jedoch nicht bemerkbar – zusätzlicher und eigentlich unnötiger Ballast ist es natürlich dennoch.

Auch sei darauf hingewiesen, dass sich mit dem Programm keine Texteingaben nachvollziehen lassen – es eignet sich also nicht als Keylogger. Allerdings wird schon protokolliert, in welchem Zeitabschnitt wie oft geklickt wurde, wie weit die Maus bewegt wurde und wie viele Tastenanschläge gemacht wurden. Wie in dem oben verlinkten Bild zu sehen, lässt sich aus diesen Daten durchaus ablesen, wann der PC wie intensiv genutzt wurde – eine durchaus sensible Information.

Die grafische Darstellung der Daten ist noch nicht ganz ausgereift. Gerade bei der ersten Nutzung werden vermutlich negative Werte etc. angezeigt. Bereits nach wenigen Minuten sollten die Grafen aber vernünftige Werte anzeigen.

Schließlich und letztlich bietet das Programm die Möglichkeit an, einen Autostart-Eintrag für den derzeitigen Nutzer anzulegen, so dass das Programm bei jeder Anmeldung gestartet wird. Diese Funktion ist derzeit noch etwas fehleranfällig, weswegen im Zweifelsfall händisch ein Autostart-Eintrag angelegt werden sollte.

Abhängigkeiten

Benötigt werden unter anderem die Pakete:

  • python-xlib
  • python-pysqlite2

sowie gegebenenfalls:

  • python-setuptools

Installation

Wie immer findet sich das Projekt bei Launchpad. Ein beherztes bzr branch lp:pyinputstats befördert Quellen auf das lokale System, wenn Bazaar installiert ist. Ansonsten kann das Paket natürlich auch ganz normal heruntergeladen werden.

Eine Installation ist grundsätzlich nicht notwendig – das Skript kann aus dem Skript-Verzeichnis mit python pyinputstats gestartet werden. Wer das Skript dennoch im System verankern möchte, kann einfach den Befehl python setup.py install mit Root-Rechten ausführen.

Probleme und Fehler bitte ich im Launchpad-Bugtracker oder hier in den Kommentaren zu notieren. Dafür schonmal vielen Dank! Und jetzt heißt es: Wer schafft die meisten Tastenanschläge am Tag? Mein erstes Gebot lautet 36.676.

Ein Urgestein unter Linux und wahrscheinlich so ziemlich jedem bekannt, ist das Filesystem ext2. Auch das ist, inklusive seinem Nachfolger ext3 Bestandteil von LPIC 201, also wollen wir das hier mal etwas genauer anschauen!

Allgemein

Ext2 steht für Extended Filesystem 2 und läuft relativ stabil schon seit Jahren unter Linux. Leider aber hat es auch ein paar Macken. Punkte wie Einzeladressierung oder die Tatsache, dass nach einem Crash immer die vollständige Platte auf deren Konsistenz überprüft werden muss, haben zu einer Weiterentwicklung geführt!

Der erste Schritt war die Einführung eines Journals. Damit versuchte man die lange Wartezeit, welche infolge einer Konsistenzprüfung anfallen konnten, zu verkürzen.
Das Problem war, dass das beim Niederschreiben von Daten ins Filesystem nicht nur die eigentlichen Daten, sondern auch noch zusätzliche Blöcke wie Inodes, Verzeichniseinträge oder Superblock geschrieben werden müssen. Geht man nun im schlimmsten Fall davon aus, dass das Filesystem während dem Niederschreiben abstürzt, so wäre ein Teil der Blöcke geschrieben, andere nicht. Kurz gesagt das Filesystem wäre total durcheinander. Und damit genau das nicht passiert, folgt auf einen solchen Absturz immer eine Prüfung der Konsistenz um solche fehlerhaften oder nicht geschriebenen Blöcke zu eliminieren.
Da eine solche pingelige Prüfung bei einer grösseren Platte aber relativ sehr lange dauern kann, kommt nun das Journal. Dieses überwacht jeden Schreibvorgang. Bevor auch nur ein Block an Daten geschrieben werden kann, speichert das Journal ab, wie und wo das Filesystem gleich einen Schreibvorgang starten wird. Stürzt das Filesystem nun während dem Schreiben ab, so weiss das System anhand des Journals jederzeit welche Blöcke abgearbeitet wurden und welche noch unvollständig sind. Eine Prüfung beschränkt sich somit von der gesamten Festplatte auf nur noch einen Sektor, wodurch die Wartezeit drastisch gesenkt werden kann.

Erzeugen

Um ein ext2- / ext3-Dateisystem zu erzeugen gibt es die Befehle mke2fs oder aber mkfs.ext2 und mkfs.ext3.

Für ext2 nimmt man die folgenden Befehle:

mke2fs /dev/sda1
mkfs.ext2 /dev/sda1

Für ein ext3 reicht es einen Parameter mehr zu setzen:

mke2fs -j /dev/sda1
mkfs.ext3 /dev/sda1

Will man nicht nur auf die Standardwerte zurückgreifen, so könnte man zum Beispiel mit der Option -b noch die Blockgrösse oder mit -i der Platz für Inodes festgelegt werden.

Migration

Auch nachträglich kann ein ext2 Filesystem noch mit Journaling ausgestattet werden. Dazu gibt es das Programm tune2fs:

tune2fs -j /dev/sda1

Wird die Platte das nächste Mal eingehängt, so wird diese als ext3 erkannt. Wichtig aber, in der Datei /etc/fstab muss der Typ von sda1 von ext2 auf ext3 angepasst werden:

root@master:/etc# cat fstab
# /etc/fstab: static file system information.
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    defaults        0       0
/dev/sda1       /               ext3    errors=remount-ro 0       1
/dev/scd0       /media/cdrom0   udf,iso9660 user,noauto     0       0

Und schliesslich ist auch ein Downgrade noch möglich, sprich das Journal kann nachträglich wieder gelöscht werden:

tune2fs -O ^has_journal /dev/sda1

Journal

Sollte das Journal nun extrem schnell, sehr gross werden, so gibt es noch die Möglichkeit, dieses auf eine eigene Partition oder Festplatte auszulagern:

mke2fs -O journal_dev -b 4096 /dev/sdb1
tune2fs -J device=/dev/sdb1 /dev/sda1

Oder noch unzählige Optionen zur Grösse und vielem mehr. Dazu aber mehr in den Manpages von tune2fs.

Überprüfung

Trotz Journal sollte man sein Dateisystem immer mal wieder komplett prüfen lassen, denn fehlerhafte Blöcke und sonstige kuriose Schreibfehler kann das Journal nicht abfangen. Das ext-Dateisystem hat dazu einen Lifecycle als Standard, dass immer nach 180 Tagen eine komplette Prüfung durchgeführt wird. Jedoch kann auch dieser Wert beliebig geändert werden, zum Beispiel auf alle 4 Monate:

tune2fs -i 4m -c 0 /dev/sda1

Label

Auch kann es ganz nützlich sein, ein Label zu setzen:

tune2fs -L home /dev/sda2

Dies hat den Vorteil, dass ich die mir keinen Dateipfad merken muss und zum Beispiel über das Label mounten kann:

mount -t ext2 LABEL=home /home

Oder aber ich kann eine Platte anhand des Labels anstatt der UUID in die fstab eintragen. Somit muss ich diese bei einer neuen Platte oder Partition nicht altern, sondern einfach das Label neu setzen.

Grösse

Ganz cool ist auch die Tatsache, ein ext-Filesystem jederzeit vergrössern oder verkleinern zu können. Dazu haben wir reseize2fs zur Verfügung:

resize2fs /dev/sda1 60G

Superblock

Will man nun wissen, wie es auf der eigenen Platte zur Zeit aussieht, so muss man den Superblock einsehen. Dazu kann ebenfalls auf tune2fs zurückgegriffen werden:

tune2fs -l /dev/sda1

Oder will man noch Informationen über einzelne Blöcke so verwendet man dumpe2fs:

dumpe2fs /dev/sda1

Und wer es ganz genau mag, der nimmt sogar debugfs, worauf ich hier aber auf Grund der Komplexität nicht eingehen möchte oder muss.

Sicherheit wird ein immer wichtigeres Thema in der IT. Klar war es auch schon vor Jahren wichtig, jedoch bei weitem nicht so stark diskutiert, wie es das heute ist.
Das Problem von IT-Sicherheit: Auch das stärkste Glied ist nur so stark wie das Schwächste!
Es bringt mir also die beste Verschlüsselung nichts, wenn mein Gegenüber diese nicht auch verarbeiten und entschlüsseln kann. Oder ein Client kann noch so gut gesichert, gepatcht und geschützt sein, wenn das angeschlossene Netzwerk unverschlüsselt und für jeden Lesbar ist. Und damit möchte ich auch gleich übergehen zum Thema VPN.

Mittels VPN lässt sich eine verschlüsselte Verbindung zwischen zwei Parteien aufbauen. Sehr zu empfehlen in öffentlichen WLANs und anderen frei zugänglichen Netzwerken.
Zur Verfügung stehen Site-to-Site, Site-to-End und End-to-End:

Die Installation von OpenVPN ist eigentlich denkbar einfach. Ich verwende dazu einen Debian- und einen Fedora-Client.

Beginnen wir mit Debian bei der Installation:

apt-get install openvpn

Nun legen wir einen neuen Key an, mit dem sich beide Seiten authentifizieren können:

openvpn --genkey --secret /etc/openvpn/static.key

Diesen muss natürlich auch noch auf dem Client übertragen werden:

scp static.key client:/etc/openvpn/

Nun legen wir eine Konfigurationsdatei an für Debian, welches die Rolle des Servers übernehmen wird:

root@server:/etc/openvpn# cat tun0.conf
dev tun0
ifconfig 10.9.8.1 10.9.8.2
secret static.key

Auch auf dem Client muss eine Konfigration eingerichtet werden:

root@client openvpn# cat tun0.conf
remote 10.128.101.26
dev tun0
ifconfig 10.9.8.2 10.9.8.1
secret static.key

Wenn man nun einen Blick in ifconfig wirft, so sieht man, dass ein neues Interface dazugekommen ist. Auf dem Server sieht das dann so aus:

root@server:/etc/openvpn# ifconfig tun0
tun0      Link encap:UNSPEC  Hardware Adresse 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00
          inet Adresse:10.9.8.1  P-z-P:10.9.8.2  Maske:255.255.255.255
          UP PUNKTZUPUNKT RUNNING NOARP MULTICAST  MTU:1500  Metrik:1
          RX packets:2 errors:0 dropped:0 overruns:0 frame:0
          TX packets:2 errors:0 dropped:0 overruns:0 carrier:0
          Kollisionen:0 Sendewarteschlangenlänge:100
          RX bytes:168 (168.0 B)  TX bytes:168 (168.0 B)

Auf dem Client wiederum so:

root@client openvpn# ifconfig tun0
tun0      Link encap:UNSPEC  Hardware Adresse 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00
          inet Adresse:10.9.8.2  P-z-P:10.9.8.1  Maske:255.255.255.255
          UP PUNKTZUPUNKT RUNNING NOARP MULTICAST  MTU:1500  Metric:1
          RX packets:2 errors:0 dropped:0 overruns:0 frame:0
          TX packets:2 errors:0 dropped:0 overruns:0 carrier:0
          Kollisionen:0 Sendewarteschlangenlänge:100
          RX bytes:168 (168.0 b)  TX bytes:168 (168.0 b)

Will man nun prüfen, dass alles läuft, so kann man die jeweilige Gegenseite pingen. Sind die Tunnel korrekt aufgebaut, so geht das ohne Probleme.


Das könnte dich auch interessieren:

  1. Dynamic Host Configuration Protocol
  2. Domain Name System mit Bind9

Schon vor einem Jahr war ich von Arch Linux absolut begeistert als ich mein NAS mit diesem Linux-Derivat aufsetzte. Durch die Arch Linux Install-HowTo von Voku (suckup_de) ist die Liebe zu dieser Distribution wieder neu entfacht! Mit diesem Artikel möchte ich Voku’s Arch Howto um ein verschlüsseltes Logical Volume (/, /home & swap) erweitern.


Partitionierung

Nach dem Punkt 2die Shell” werden wir erstmal die gewünschte Festplatte mit “fdisk” partitionieren, in meinem Fall “/dev/sda“.

Ich habe …

/dev/sda1 – 100 MB – für /boot
/dev/sda2 – den Rest – für LVM

… geplant.

fdisk -l /dev/sda

Platte /dev/sda: 320.1 GByte, 320072933376 Byte
255 Köpfe, 63 Sektoren/Spur, 38913 Zylinder, zusammen 625142448 Sektoren
Einheiten = Sektoren von 1 × 512 = 512 Bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x54eb3fb7

   Gerät  boot.     Anfang        Ende     Blöcke   Id  System
/dev/sda1   *          63      224909      112423+  83  Linux
/dev/sda2          224910   625137344   312456217+  83  Linux

Verschlüsselung

Aus Sicherheitsgründen ist empfehlenswert die Partition ein mal mit Zufallszahlen zu überschreiben, vor allen Dingen, wenn auf dieser vorher unverschlüsselte Daten gespeichert waren. Ansonsten sind unter Umständen viele Dateien nach dem Verschlüsseln noch auslesbar. (http://wiki.ubuntuusers.de/LUKS#Erstellen)

shred -vz /dev/sda2” löscht /dev/sda2 – 3 mal mit Zufallswerten und 1 mal mit Nullen

Jetzt laden wir das benötigte Kernel-Modul für unsere Verschlüsselung, …

modprobe dm-crypt

… im Anschluss verschlüsseln wir unser /dev/sda2 und legen das gewünschte Entschlüsselungspasswort fest, …

cryptsetup -c aes-xts-plain -y -s 512 luksFormat /dev/sda2

… mit …

cryptsetup luksOpen /dev/sda2 lvm

… öffnen wir die verschlüsselte Partition und mounten diese nach /dev/mapper/lvm.
Logical Volume Manager

Nachdem wir die Verschlüsselung angelegt haben, müssen wir nun das LVM erstellen

# Physical Volume anlegen
pvcreate /dev/mapper/lvm
# Volume Group "lvm" anlegen
vgcreate main /dev/mapper/lvm

… und nun die Logical Volumes.

# 20 GB für "/" aus der VG "main"
lvcreate -L 20GB -n root main
# 8 GB für den "swap" aus der VG "main" - warum 8 GB, man sollte immer den RAM 2x nehmen
lvcreate -L 8GB -n swap main
# den Rest (x GB) aus der VG "main" für "/home"
lvcreate -l 100%FREE -n home main

Nun können wir mit Punkt 3Start der Installationweiter machen.
Installation “Prepare Hard Drive”

Den Punkt 6Festplatten vorbereiten” aus der HowTo ersetzen wir komplett! Da wir unsere Festplatte bzw. unsere Logical Volumes schon partitioniert haben, müssen wir für diese nur noch die Mountpoints festlegen und die LVs formatieren – dazu wählen wir “Manually Configure block devices, filesystems and mountpoints“.


Installation “Configure System”

Bei Punkt 9Grundsystem konfigurieren” müssen wir nur zusätzliche Änderungen, aufgrund der Nutzung des verschlüsseltem LVMs, vornehmen.

/etc/rc.conf

USELVM=”yes”

/etc/mkinitcpio.conf

HOOKS="base udev autodetect pata scsi sata usb usbinput keymap encrypt lvm2 filesystems"

Installation “Install Bootloader”

Punkt 10der Bootloader (GRUB)” installieren wir nach Voku’s Anleitung, jedoch müssen wir noch die menu.lst bearbeiten.

# (0) Arch Linux
title  Arch Linux
root   (hd0,0)
kernel /vmlinuz26 cryptdevice=/dev/sda2:main root=/dev/mapper/main-root ro lang=de locale=de_DE.UTF-8
initrd /kernel26.img

# (1) Arch Linux
title  Arch Linux Fallback
root   (hd0,0)
kernel /vmlinuz26 cryptdevice=/dev/sda2:main root=/dev/mapper/main-root ro lang=de locale=de_DE.UTF-8
initrd /kernel26-fallback.img

Nun können wir ganz normal bei Punkt 11Installation beenden” auf suckup.de weiter machen.

Ich hoffe das diese kleine Ergänzung dem ein oder anderen inspiriert bzw. weitergeholfen hat. ;-)

Quellen:
Arch Linux – Installation – suckup.de
Offizielle Arch Linux Installations-Anleitung
Arch Linux – Festplatte verschlüsseln – wiki.archlinux.de

 

6. März 2011

Unter dem Codenamen Helga hat das KDE Team die Version KDE SC 4.6.1 auf den Weg gebracht. Es ist die erste Version die aus dem GIT Hub Servern gebaut wurde. Neben zahlreichen Bugfixes stehen auch einige Neuerungen auf dem Tablett. Besonderes Augenmerk hat der Dateimanager Dolphin erhalten. Es können nun neue Ordner über das Kontextmenu angelegt werden. Zusätzlich wurde eine Spaltenansicht eingebunden.

Einige Veränderungen  können im folgenden  Video (Quelle Golem.de) eingesehen werden.

Leider fehlt noch die PIM Suite in einer aktuellen Version, aber die kommt bestimmt auch noch.

Quellen:

Viel Spass mit der neuen Version.

Weitere Artikel:

Der Februar verlief sehr ruhig. Die Entwicklung des Kernels 2.6.38 läuft auf eine stabile Final-Version hin und auch Kroah-Hartmans Winterputz ist Thema dieses Kernelrückblicks. Dieser ist, neben vielen anderen interessanten Beiträgen, in der aktuellen Ausgabe von freiesMagazin enthalten.

2.6.38-rc4 [1] fiel mit nur wenig mehr als 4000 geänderten Code-Zeilen äußerst klein aus, vermutlich eine Nachwirkung der eine Woche zuvor zu Ende gegangenen australischen Linux-Konferenz linux.conf.au, bei der einige Entwickler gebunden waren.

Die fünfte Vorabversion [2] war jedoch bereits wieder größer und auch interessanter: Die im November begonnene Aufräumaktion (siehe „Der November im Kernelrückblick“, freiesMagazin 12/2010 [3]) im Bereich der Treiber für zeichenorientierte Geräte („Character Devices“) wurde fortgesetzt. Nachdem Mitte Januar einige bereits in die tty-Umgebung ausgelagerte Komponenten wieder zurückgeholt wurden, buk man erst einmal wieder kleinere Brötchen mit der Auslagerung des virtio_console-Treibers in den Bereich der Terminal-Schnittstelle tty. Ganz so klein waren die Brötchen dann doch nicht, denn diese Aktion trug durch die Größe des Treibers ganz schön auf und stach damit aus den anderen Änderungen deutlich heraus, genauso wie die Verlagerung eines Teils der Dokumentation aus dem PowerPC-Bereich in den architekturunspezifischen Devicetree („Geräte-Baum)“. Die Hoffnung auf die endgültige Beseitigung eines Problems mit der neuen Funktion „RCU filename lookup“ zerschlug sich schon wenige Stunden nach Veröffentlichung des -rc5 [4]. Die Version 2.6.38-rc6 [5] fiel wieder kleiner aus, Torvalds hob dann auch nur die Beseitigung eines Speicherfehlers hervor, von dem zwar nur sehr wenige betroffen waren, der jedoch die Entwickler mehrere Wochen in Atem hielt. Daneben wurde noch alter Code aus dem iSCSI-Treiber target entfernt.
Nachdem Torvalds sich von seiner ersten (und nach seiner eigenen Ansicht auch letzten) „Night before Oscar party“ [6] erholt hatte, gab er auch noch 2.6.38-rc7 [7] frei. Diese Version fiel wieder etwas kleiner aus. Den Hauptanteil machten Fehlerkorrekturen aus, zum Beispiel die Rücknahme eines Patches, der bei Operationen mit dem TPM (Trusted Platform Module) [8] den Timeout auf den niedrigstmöglichen Wert setzt, wenn er mit 0 angegeben ist.
Mit dem Patch sollten Fehler verhindert werden, die zu langen Startzeiten führen können. Der Kernel-Entwickler Ted T'so stieß damit jedoch auf Probleme, als die Operationen des TPM zu schnell auf einen Timeout liefen. Daneben gab es noch Optimierungen an dem Treiber für Atheros WLAN-Chips ath5k, die ein schnelleres Umschalten der Kanäle ermöglichen.

Greg Kroah-Hartman kündigte auf der Linux Kernel Mailing List die Verfügbarkeit neuer Treiber an, die künftig die Spezialfunktionen aller bekannten Samsung-Notebooks unterstützen [9]. Insbesondere soll damit die Display-Hintergrundbeleuchtung regelbar sein, Tasten für die Steuerung der Leistungsstufen und für Sonderfunktionen nun auch funktionieren und Probleme mit dem Ein-/Ausschaltknopf für die WLAN-Schnittstelle der Vergangenheit angehören. Der Treiber befindet sich derzeit im Kernel-Zweig linux-next und wird voraussichtlich in 2.6.39 aufgenommen werden.

Kroah-Hartman war im Februar äußerst umtriebig. Nach einem Besuch bei Ralink in Taiwan kam in die Weiterentwicklung der Treiber für deren WLAN-Chips neuer Schwung [10]. Derzeit profitiert davon der rt2x00-Treiber, der um Unterstützung für aktuellere Chips erweitert wird.
Die Ralink-Entwickler werden künftig direkt die Treiber im Kernel pflegen. Bislang oblag dies der Community, Ralink stellte dieser lediglich den Code zur Verfügung. Kroah-Hartman hatte bei seinem Besuch mit den Entwicklern darüber gesprochen, wie eine fruchtbare Zusammenarbeit mit den Kernel-Entwicklern aussehen sollte.


Kurz erläutert: „Commit, Patch“
Änderungen am Quelltext einer Software werden meist als Patch bereitgestellt. Ein Patch enthält die Information, an welcher Stelle im ursprünglichen Quelltext Änderungen vorgenommen werden, sodass nicht die Verteilung des gesamten Quelltextes nach einer Änderung notwendig ist. Versionsverwaltungssysteme nutzen im allgemeinen Patches um Änderungen aufzunehmen und zu verteilen, dadurch kann die Menge der übertragenen Daten zwischen dem zentralen Repository und den lokalen Kopien der Entwickler verringert werden.
Commits beschreiben im Versionsverwaltungssystem Git Änderungen, die gegen einen Zweig (Branch) vorgenommen werden. Dieser enthält Informationen über den Urheber der Änderung, den Einreicher und eine kurze Beschreibung. Dazu kann ein Commit zum einen Patch beinhalten, aber es kann damit auch ein anderer Zweiges mit allen darin enthaltenen Commits wieder dem Hauptentwicklungszweig zugeführt werden, Was auch als Merge bezeichnet wird. Die meisten Commits aus Torvalds Feder zum Beispiel sind Merges, die die Zweige einzelner Entwickler oder ganzer Subsysteme in den offiziellen Kernel zurückführen.

Quellen:
[1] http://lkml.org/lkml/2011/2/7/403
[2] http://lkml.org/lkml/2011/2/15/977
[3] http://www.freiesmagazin.de/freiesMagazin-2010-12
[4] http://lkml.org/lkml/2011/2/16/100
[5] http://lkml.org/lkml/2011/2/21/433
[6] http://torvalds-family.blogspot.com/2011/02/pearls-before-swine.html
[7] http://lkml.org/lkml/2011/3/1/407
[8] http://de.wikipedia.org/wiki/Trusted_Platform_Module
[9] http://www.pro-linux.de/news/1/16690/linux-treiber-fuer-samsung-notebook...
[10] http://www.pro-linux.de/news/1/16692/ralink-vervollstaendigt-linux-wlan-...

 

Das Full Circle Magazine hat die Spezialausgabe 1 zu Python veröffentlicht.

Full Circle - Python Special Edition 1 Bei der vorliegenden Ausgabe handelt es sich um eine Zusammenstellung verschiedener bereits veröffentlichter Artikel der Serie „Programming in Python“ aus den Ausgaben 27 bis 34.

  • Program in Python - Part 1
    (Einstieg, for-Schleife)
  • Program in Python - Part 2
    (Lists, Strings, If-Abfragen und While-Schleifen)
  • Program in Python - Part 3
    (Module, Funktionen)
  • Program in Python - Part 4
    (Klassen)
  • Program in Python - Part 5
    (Erstellen grafischer Oberflächen mit wxPython und Boa Constrictor)
  • Program in Python - Part 6
    (grafische Oberflächen)
  • Program in Python - Part 7
    (Datenbanken)
  • Program in Python - Part 8
    (Rezepte-Datenbank mit GUI)

Full Circle Magazine wird in englischer Sprache veröffentlicht.

Grab it while it’s sleeping!

Creative Commons Attribution-ShareAlike 3.0 Unported LicenseDas Full Circle Magazine wird bereitgestellt unter Creative Commons Attribution-Share Alike 3.0

 

Gimp ist die Bildbearbeitung für Webdesign mit Ubuntu. Jeder der Websites unter Ubuntu gestalten will braucht dazu Gimp. Wie man Gimp einrichtet so, dass keine Wünsche mehr offen bleiben, will ich euch hier zeigen.

Wer meint, er braucht auch unter Ubuntu Photoshop zum Webdesign, der kann sein Glück mit Wine versuchen. Ich bin der Meinung, das ist nicht nötig, aber, wenn man schon seit Jahr und Tag Photoshop benutzt, kann ich das verstehen.

Wir werden im Folgenden:

  1. Paketquellen für Gimp und bestimmte Plugins hinzufügen
  2. Gimp, die Plugin-Registry und den Resynthesizer installieren

Paketquellen installieren

Wir müssen nur eine PPAs installieren: und zwar die von Webup8.org, damit können wir den aktuellsten Stable-Release von Gimp und die Plugin-Registry installieren. Im Terminal eineinfach:

sudo add-apt-repository ppa:nilarimogard/webupd8
sudo apt-get update

Gimp, Plugin-Registrym, Resynthesizer in Ubuntu installieren

Gimp installiert ihr denkbar einfach, im Ubuntu App-Store, ich meine natürlich Software Center, nach Gimp suchen und auf installieren klicken. Analog installiert ihr die Registry (Paketname: gimp-plugin-registry) und den Resynthesizer (Paketname: gimp-resynthesizer).

Etwas schneller könnt ihr  Gimp mit den beiden anderen Paketen natürlich auch im Terminal installieren:

sudo apt-get install gimp gimp-plugin-registry gimp-resynthesizer

Das ganze sollte dann so aussehen:

Gimp in Ubuntu mit
Plugin-Registry installiert

Gimp bringt für das Webdesign schon eine ganze Menge Funktionen mit. Mit der Plugin-Registry und dem Resythesizer sollten kaum noch Wünsche für das Webdesign mit Ubuntu mehr offen sein.

Übrigens: Wenn ihr keine Lust habt, das selbst zu machen, könnt ihr auch einfach Rockiger OS installieren.

Gimp ist die Bildbearbeitung für Webdesign mit Ubuntu. Jeder der Websites unter Ubuntu gestalten will braucht dazu Gimp. Wie man Gimp einrichtet so, dass keine Wünsche mehr offen bleiben, will ich euch hier zeigen.

Wer meint, er braucht auch unter Ubuntu Photoshop zum Webdesign, der kann sein Glück mit Wine versuchen. Ich bin der Meinung, das ist nicht nötig, aber, wenn man schon seit Jahr und Tag Photoshop benutzt, kann ich das verstehen.

Wir werden im Folgenden:

  1. Paketquellen für Gimp und bestimmte Plugins hinzufügen
  2. Gimp, die Plugin-Registry und den Resynthesizer installieren

Paketquellen installieren

Wir müssen nur eine PPAs installieren: und zwar die von Webup8.org, damit können wir den aktuellsten Stable-Release von Gimp und die Plugin-Registry installieren. Im Terminal eineinfach:

sudo add-apt-repository ppa:nilarimogard/webupd8
sudo apt-get update

Gimp, Plugin-Registrym, Resynthesizer in Ubuntu installieren

Gimp installiert ihr denkbar einfach, im Ubuntu App-Store, ich meine natürlich Software Center, nach Gimp suchen und auf installieren klicken. Analog installiert ihr die Registry (Paketname: gimp-plugin-registry) und den Resynthesizer (Paketname: gimp-resynthesizer).

Etwas schneller könnt ihr  Gimp mit den beiden anderen Paketen natürlich auch im Terminal installieren:

sudo apt-get install gimp gimp-plugin-registry gimp-resynthesizer

Das ganze sollte dann so aussehen:

Gimp in Ubuntu mit
Plugin-Registry installiert

Gimp bringt für das Webdesign schon eine ganze Menge Funktionen mit. Mit der Plugin-Registry und dem Resythesizer sollten kaum noch Wünsche für das Webdesign mit Ubuntu mehr offen sein.

Übrigens: Wenn ihr keine Lust habt, das selbst zu machen, könnt ihr auch einfach Rockiger OS installieren.

The post Gimp für Webdesign appeared first on Rockiger.