ubuntuusers.de

10. September 2009

Eine UBUNTU-Live-CD ist etwas sehr schönes, wenn man denn ein funktionierendes optisches Laufwerk hat. Meines ist etwas in die Jahre gekommen, und so benötigt mein MacPro im Schnitt 4 Versuche, bis er beim Neustart die CD erkennt und davon booten kann. Daher kann es von Vorteil sein, sich die Live-CD auf einen USB-Stick zu kopieren und dann von eben diesem Stick zu booten. Bei “normalen” PCs funktioniert dies recht einfach über die Ubuntu-Hausmittel.

Eine UBUNTU-Live-CD ist etwas sehr schönes, wenn man denn ein funktionierendes optisches Laufwerk hat. Meines ist etwas in die Jahre gekommen, und so benötigt mein MacPro im Schnitt 4 Versuche, bis er beim Neustart die CD erkennt und davon booten kann. Daher kann es von Vorteil sein, sich die Live-CD auf einen USB-Stick zu kopieren und dann von eben diesem Stick zu booten.

Bei “normalen” PCs funktioniert dies recht einfach über die Ubuntu-Hausmittel. Über “System => Systemverwaltung” erreicht man den “USB-Startmedien-Ersteller”, der ein .ISO-Image auf einen USB-Stick klont. So können “normale” PCs vom Stick booten.

Wie so oft geht Apple hier aber eigene Wege, so dass diese Sticks an Intel-Macs leider nicht booten wollen. Lediglich “OSX”-Sticks oder “OSX”-USB-Festplatten lassen sich per rEFIt oder per “ALT”-Taste booten.

Dennoch habe ich in den englischen Ubuntuforums Hilfe erhalten. Die Jungs aus diesem Thread entwickeln den GRUB2EFI-Bootloader. Dieser ermöglicht es, USB-Partitionen zu booten, egal ob USB-Live-Sticks, USB-Stick-Installationen oder USB-Festplatten. Ich beschreibe hier “nur” die Erstellung eines UBUNT-Live-Sticks. Andere Distriubtionen benötigen leicht andere Konfigurationen. Informationen hierzu bietet der besagte Thread bei Ubuntuforums.com.

Erschwerend kommt hinzu, dass die Methode auch von der Apple-Hardware abhängt. Bei mir funktioniert die folgende Anleitung auf einem MacPro1,1 und einem MacbookPro4,1
Welche Hardware man benutzt erfährt man unter Apfel => Über diesen Mac => Weitere Informationen bzw. unter Ubuntu per

sudo dmidecode -s system-product-name

Besitzer anderer Modelle finden im oben genannten Foreneintrag Hilfe.

So geht’s bei mir:

  1. Starte OSX und installiere rEFIt
  2. Spätestens nach dem zweiten Neustart meldet sich das rEFIt-Menü und fragt nach, was denn gebootet werden soll (Wenn du bereits Ubuntu installiert hast, kennst du das ja.. :) )
  3. Formatiere einen USB-Stick (meiner ist ein fünf Euro Stick mit 2GB) komplett mit FAT32
  4. Lade dir die Datei bootusb.tar.gz herunter und entpacke den Ordner efi auf den USB-Stick. Dieser Ordner enthält den Unterordner boot, in welchem 3 Dateien liegen.
  5. Jetzt kommt es darauf an, welchen Intel-Mac du besitzt. Meine Modelle (MacPro1,1 und MacbookPro4,1) sind alle 64bit-fähig. Ältere Modelle, wie z.B. das Macbook2,1 benötigen ein 32bit System.
  6. 64bit
    • Lade dir ein aktuelles 64bit-Ubuntu-ISO herunter, z.B. ubuntu-9.04-desktop-amd64.iso
    • Die ISO-Datei wird genau so wie sie ist (also ohne sie zu entpacken) auf den USB-Stick geschoben. Der Stick enthält nun also das ISO-Image und den efi-Ordner.
    • Im Unterordner efi/boot/ liegt die Datei grub.cfg. Öffne diese im Terminal und schau nach, ob die Einträge mit dem Namen des ISO-Images übereinstimmen (voreingestellt habe ich “ubuntu-9.04-desktop-amd64.iso“). Wenn der ISO-Name abweicht (z.B. weil du ein Karmic-Image verwenden möchtest), muss das in dieser Datei entsprechend angepasst werden.
    • Das war’s, wenn du jetzt rebootest, dann siehst du im rEFIt-Menü deinen USB-Stick. Wenn du diesen auswählst, erscheint das GRUB2-Bootmenü (ein roter Bildschirm), an welchem du das Bootsystem auswählen kannst (ich verwende hier “A”). Danach rödelt der Mac ein wenig, man könnte meinen, dass er hängt, aber dann ist nach kurzer Zeit Ubuntu hochgefahren! Jedenfalls gilt das für den MacPro1,1. Für das MacbookPro4,1 sind weitere Konfigurationen notwendig (s.u.)
  7. 32bit
    • Für 32bit-Systeme (funktioniert bei meinem Macs auch) kopiert man auch erst den efi-Ordner auf den USB-Stick. Allerdings muss nun im Unterordner boot die Datei “bootx64.efi” in “bootia32.efi” umbenannt werden. Dies gilt auch für das Icon “bootx64.incs”, welches in “bootia32.icns” umbenannt wird.
    • Lade dir nun ein 32bit-ISO-Image, z.B. ubuntu-9.04-desktop-i386.iso
    • Auch hier muss einfach das ISO-Image in den Hauptordner des USB-Sticks geschoben werden (ohne es zu entpacken!).
    • Anschließend muss auf dem Stick im Ordner efi/boot/ die Datei grub.cfg editiert werden. Dort ersetzt du alle Einträge “ubuntu-9.04-desktop-amd64.iso” durch den Dateinamen deines ISO-Images, also z.B. durch ubuntu-9.04-desktop-i386.iso
    • Das war’s, wenn du jetzt rebootest, dann siehst du im rEFIt-Menü deinen USB-Stick. Wenn du diesen auswählst, kommt ein roter Bildschirm, an welchem du das Bootsystem auswählen kannst (ich verwende hier “A”). Danach rödelt der Mac ein wenig, man könnte meinen, dass er hängt, aber dann ist nach kurzer Zeit Ubuntu hochgefahren!

MacbookPro4,1
Ein MacbookPro4,1 benötigt einige Anpassungen. Zunächst muss in grub.cfg für die Einträge A-C jeweils unter fakebios zusätzlich fix_video geschrieben werden. Somit sieht Eintrag A beispielsweise so aus:

menuentry "A ubuntu-9.04-desktop-amd64.iso " {
 fakebios
 fix_video
 search --set -f /ubuntu-9.04-desktop-amd64.iso
 loopback loop /ubuntu-9.04-desktop-amd64.iso
 linux (loop)/casper/vmlinuz boot=casper iso-scan/filename=/ubuntu-9.04-desktop-amd64.iso noefi
 initrd (loop)/casper/initrd.gz
}

Man startet den Mac mittels USB-Stick und der Auswahl “B ubuntu-9.04-desktop-amd64.iso fbdev“. Wenn Ubuntu in die Kommandozeile gestartet ist, tippt man dort folgendes ein um den GNOME Display Manager zu stoppen:

sudo /etc/init.d/gdm stop

Jetzt muss die Datei /etc/X11/xorg.conf angepasst werden. Hierzu verwendet man z.B. den Editor nano:

sudo nano /etc/X11/xorg.conf

Hier ergänzt man die Section "Device" um den Eintrag Driver "fbdev":

Section "Device"
(...)
Driver "fbdev"
(...)
EndSection

Die Datei wird per Strg O gespeichert und nano per Strg X beendet.

Anschließend wird der GNOME Display Manager neu gestartet:

sudo /etc/init.d/gdm restart

Das graphische Live-System fährt hoch!

Super Sache, aber ohne die Hilfe des Users pxwpxw hätte ich das nie herausgefunden, und wie gesagt: in den Threads wird auch beschrieben, wie man mit anderen Modellen andere Systeme auf anderen USB-Medien bootet!

weitere Links

mixapp-logo

Mixapp ist eine Software für Windows, Mac und Linux zum gemeinsamen Musik hören und chatten, die sich derzeit noch im Private Beta Test befindet.

screenshot

Den Linux-Client kann man einfach herunterladen und entpacken. Im entpackten Ordner befinden sich nur 2 Dateien. Mit einem Doppelkick auf Mixapp lässt sich das Programm auch einfach starten. Eine Anleitung zur Verwendung mit einem 64-bit-Ubuntu findet sich im Forum. Ein Link dorthin bekommt man auf der Download-Seite (hierfür muss man aufgrund des Beta-Tests schon angemeldet sein).

Musik kann man von der eigenen Festplatte verwenden und anderen zum Hören anbieten, man kann aber auch die bereits recht gut gefüllte Datenbank verwenden und Titel von dort zur Playlist hinzufügen.

Ich habe das Programm jetzt mal ein paar Minuten getestet und bin sehr angetan davon. Sehr gut finde ich, dass man nicht lange braucht um sich in der Software zurecht zu finden.

Wer gerne einmal Mixapp testen möchte kann dies über diesen Einladungs-Link gerne tun. Mich findet ihr vielleicht im Chat-Raum “oshelpdesk” ;-)

Heute in genau einer Woche ist es soweit, die erste openSUSE Contributors Conference startet. Diese Konferenz ist die erste in einem solchem Rahmen, die das openSUSE-Projekt veranstaltet und für den Start hat man sich als Austragungsort den SUSE Hauptsitz in Nürnberg ausgesucht. Ganze vier Tage will man nicht nur daran arbeiten die openSUSE-Distribution zu verbessern, sondern will auch Neuigkeiten austauschen und sich über Entwicklungen informieren.
Ein vollgepacktes Programm erwartet die Besucher, 2 Tracks mit Vorträgen wie Moblin and openSUSE, ALSA & PulseAudio on openSUSE über Getting involved in Free and Open Source Software bis zur Vorstellung des openSUSE Ambassador Program durch Joe “Zonker” Brockmeier reicht das Vortragsprogramm. Neben den beiden festgelegten Vortragssträngen gibt es aber auch noch zwei Tracks mit Unkonferenz-Beiträgen, bei denen die ersten berets belegt sind, auch dort gibt es interessantes wie zum Beispiel das open-PC von Frank Karlitschek. Ganz nebenbei gibt es auch noch jede Menge Barcamp-Sessions. Am Samstag gibt es dann noch einen Unkonferenz-Track mehr und man hat auch jede Menge für den “normalen” Durchschnitts-User im Angebot, während sich das restliche Programm eher an den fortgeschrittenen User, Entwickler oder eben den openSUSE Contributor widmet. Was allerdings nicht heißt, dassder Nutzer vor der Türe bleiben soll, die Türen des Hauses sind an allen Tagen dem Interessierten offen.
Die Keynotes halten am Donnerstag Lenz Grimmer vom MySQL Community Relations Team bei Sun Microsystems, Thema “Working in a Virtual Community” und am Sonntag Gianugo Rabellino mit “Open Development in the trenches: a decade at the Apache Software Foundation”.
Zur openSUSE Contributors Conference werden bereits mehrere hundert Beitragende der openSUSE Community erwartet.
Natürlich gibt es über die insgesamt vier Tage Möglichkeiten geselliger Art, bei denen man die Mitglieder der openSUSE Community näher kennenlernen kann. Gleich am Donnerstag lädt Joe “Zonker” Brockmeier unter dem Motto “Work Hard, Play Harder!” in “Joes Taverne” ein, die er gedenkt im SUSE Hauptsitz zu errichten. Auf der Karte dieser ” gastronomischen Einrichtung” stehen unter anderem “Flaming Joe’s”. Ich habe verzweifelt versucht herauszufinden, was das sein soll und dabei einige Treffer erhalten. Am nächsten kommt diesem wohl eine karibische Barbecuesoße und da ich weiß, dass Zonker Barbcues mag, liegt die Vermutung nahe das openSUSEs Communitymanager sich hinter den Grill stellen wird. Warten wie es einmal ab.
Am Freitag und Samstag gibt es etwas, worüber ich mich besonders freue und woran ich auch einen kleinen Anteil habe, die Creative Commons Short Film Nights im Kommkino. Damit kommt auch die freie Kultur auf diesem Event nicht zu kurz. Was ich so mitbekommen habe freuen sich schon einige auf diese Sociial Events filmischer Art und es war wohl keine so schlechte Idee als mich die Jungs vom Kommkino angeschrieben haben und um Hilfe bei einer CC Filmnacht gebeten haben, diesen zu raten es auf den Termin der openSUSE Conference zu legen. Auch ich bin gespannt was Gottfried und die Jungs vom Kommkino da an freien Filmen herausgesucht haben und hoffe es ist nicht allzu viel von ihren Trashfilmen dabei.
Was mich betrifft, ich bin ab Donnerstag in Nürnberg vor Ort und versuche für RadioTux von dieser Veranstaltung zu berichten.
Bleibt mir nur noch zu sagen, dass natürlich nicht nur die Türe für den “gemeinen SUSE-Nutzer” offensteht sondern für jedne an freier Software und Linux Interessierten und vielleicht sieht man sich ja in Nürnberg.

Während meinen Streifzügen durch das Netz, bei denen ich auf linuxartige Informationen fokussiert bin, stosse ich ab und zu auf Interessantes. Hier ein Auszug daraus:

  • Virtuellle Linuxe im Netz draussen Matthias berichtet auf seinem Blog über den Dienst netboot.me, mit dem es möglich sei, virtuelle Linux-Maschinen in der Wolke draussen im Internet zu betreiben. Offensichtlich ist der Service aber noch nicht ganz reif.
  • Tine 2.0 und Exchange Auf dem Open Mind Blog liest sich ein Artikel zum Thema Tine 2.0, einer Groupware-Software, die sich langsam aber sicher zur erwachsenen Alternative zu Exchange und Outlook mausert. Interessant dazu ist auch die Unterstützung von ActiveSync.
  • ext3 zu ext4 Wie man von Dateisystem ext3 zu ext4 gelangt, beschreibt Hans auf seinem Blog. Er verweist dabei auf einen englischsprachigen Artikel.
  • Debian 5.03 Mit der Herausgabe von Debian GNU/Linux »Lenny« 5.0.3 fasst Debian wichtige Fehlerkorrekturen und Sicherheitsupdates der letzten zwei Monate seit dem Erscheinen von Debian 5.0.2 zusammen.
  • Bürgermeisters Gezwitscherte Zum Thema Yahoo Pipes und Twitter beziehungsweise identi.ca berichtet Sirko ganz spannend. Ebenso kommen einige Applikationen (zum Beispiel zum Erstellen einer Twitterwall) zur Sprache.
  • Schnelle Roboter Wozu schnelle Roboter fähig sind, berichtet ausgerechnet ein netter Mensch, der aus der Region Bern kommt. Die nehmen es normalerweise dort nicht so hurtig. Christian verweist auf seinem Blog auf das entsprechende Filmli.
  • GTD mit Vim Als lesenswert erachte ich den Beitrag von Volker Bernhard, der über die Möglichkeiten vom Editor Vim und weiteren OpenSource-Programmen unter Linux und Windows berichtet, damit GTD auf beiden Plattformen betrieben werden kann. Spannend!
  • Android und Augmented-Reality-API Laut heise open bekommt Android eine Augmented-Reality-API. Die API erlaube es Entwicklern, eigene Anwendungen mit AR-Funktionen auszubauen.
  • Android und Facebook Und noch einmal Android: Facebook gibt die Anwendungen für Android frei; das schreibt zdnet.de. Die Anwendung stünde bereits im Market bereit.

Ähnliche Artikel

Ich habe einen Ordner auf dem PC, in dem tummeln sich tausende Bilder. Diese Bilder haben alle unterschiedliche Auflösungen und Namen, es ist kein System erkennbar. Aber ich möchte nicht alle Bilder behalten, sondern “kleine Bilder” löschen. Kleine Bilder haben eine geringe Auflösung in diesem Fall.
Dazu habe ich es erst mit Nautilus versucht: Über einen Rechtsklick habe ich das Kontextmenü geöffnet und dort die Sortiereinstellung “Größe” gewählt. Anschließend wurden die Bilder nach Dateigröße sortiert dargestellt. Das war ja schon der halbe Weg. Allerdings klappte diese Methode nur bei den Minibildern (einstelliger Kilobytebereich). Sobald es bei etwa 50kB angekommen war, war die Dateigröße kein Maß mehr für dich Auflösung, da die Bildqualität eine Rolle spielte. Konkret: Manche Bilder mit höherer Auflösung hatten einen kleineren Speicherbedarf als andere Bilder mit sehr geringer Auflösung.


Leider bietet Nautilus keine Möglichkeit, Bilder nach der Auflösung zu sortieren. Folglich musste ich stärkere Geschütze auffahren:

imagemagickIch fand im mächtigen Programm imagemagick ein Tool, dass es ermöglicht, die Auflösung von Bildern in der Konsole auszulesen. Mit diesem Tool und weiten Helferchen konnte ich nun ein Skript schreiben, das alle Bilder eines Ordners untersucht, die Auflösung ansieht und entscheidet, ob es ein »kleines« oder ein »großes« Bild ist. Dementsprechend handelt es dann. Das Skript sieht folgendermaßen aus und benötigt ein paar Programme, die man normalerweise aus den Repositories bekommt:

sudo apt-get install imagemagick

Das Skript

siehe dazu auch hier.

#!/bin/bash
minpixel=307200; # Gibt die minimale Pixelzahl an. Orientierung hierbei an 640x480
zahl=0
zahlpur=0
for i in *.jpg # Bot sich an, da es sich ausschließlich um JPEG handelte
do
auflsgx=$(identify -format '%w' "$i");
auflsgy=$(identify -format '%h' "$i");
auflsg=$[$auflsgx*$auflsgy];
if [ "$auflsg" -lt "$minpixel" ]; then
echo "Bild: ${auflsgx}x$auflsgy $auflsg Pixel $i";
zahl=$[$zahl+1];
rm $i;
fi
zahlpur=$[$zahlpur+1];
done
echo "$zahl von $zahlpur Bildern wurden bearbeitet";

Die Möglichkeiten sind nun fast uneingeschränkt! Über neue sed-Befehle kann man die Bedingungen beliebig verändern, etwa die Farbtiefen und so weiter. Mit

identify -verbose "$i"

sieht man noch viel mehr Details der Bilder, nach denen man die Bilder aussortieren kann. Auch andere Verarbeitung (neben löschen) sind mit diesem Grundgerüst kein Problem.

9. September 2009

Wie wir berichtet haben ist gestern die Version 1.0 des beliebten Programms Aircrack-ng erschienen. Dies haben wir zum Anlass genommen ein Interview  mit dem Hauptverantwortlichen hinter diesem Projekt zu führen.

Linux|Lounge: At first, thanks for taking the time for the interview!

Who are you and what is your relationship to the aircrack-ng project?

Mister_X: I’m Thomas d’Otreppe de Bouvette. I’m from Belgium and I work as an IT consultant but nothing related to aircrack-ng. So I work on aircrack-ng during my freetime. I am the author of aircrack-ng. I created the project 3 years ago, in february 2006, when Devine disappeared from the aircrack project and I wanted to continue to work on aircrack to improve it a bit for me, but I thought it was a good idea to share the project with the community. Aircrack-ng is actually based on the original aircrack.

Linux|Lounge: Aircrack-ng has finally released its first major version. What are its key features?

Mister_X: That really depends if you were following the project, not much compared to rc4 but a lot of changes compared to the latest stable.
A few programs have been added (airserv-ng, airolib-ng, tkiptun-ng, and airdecloak-ng, …), others have been improved (new options, new drivers supported, compilation on several OSes… and architectures, etc.), and many bugs have been fixed. There is now a library called “osdep” (src/osdep directory) for capturing/injecting 802.11 frames without having to care about the difference on different OSes and the drivers used. It can do networking and more.
Compared to the latest stable we now can capture the WPA handshake with airbase-ng without needing the access points, you just need the client. In aircrack-ng we have the PTW2 attack. It was already in 0.9 but in 1.0 it was slightly improved. With this attack you need much less packets than with the other attacks to crack the WEP key. On the other side, Aircrack-ng is not only for attacking, you can also use it to do audits.

Airgraph-ng, by TheX1le, for example shows the relationship between the clients and the access points, you can see what client is connected to what access points, there different networks it probed.

GISKismet, by jabra, is a wireless recon visualization tool which can handle data gathered using Kismet and stores them in an SQLite database and features kml-Exports for Google Earth.

Linux|Lounge: What is next in the aircrack-ng project. Will you take some time off or are you eager to hit the aircrack-ng roadmap?

Mister_X: Next in the aircrack-ng series will be version 1.1 containg, as usual, bug fixes. It should also finally have support for airpcap devices and some support for OSX, natively. We are also working on improving the WPA handshake detection and fixing capture/injection on BSD.

I’m holding a workshop about “Wireless auditing” at Brucon in less than 2 weeks in which i’ll tackle different scenarios during an audit of WiFi networks, including the use of CUDA and FPGA to accelerate bruteforcing.


Comments

Nachdem nun meine Firefox-Lesezeichen immer synchron sind :-) , habe ich jetzt eine entsprechende Lösung für die RSS-Feeds. Bisher hatte ich Liferea benutzt, aber leider gibt es davon keine Windowsversion. Deshalb habe ich mir mal RSSOwl angeschaut. Mit ein paar Anpassungen funktioniert auch hier die Synchronisation.

Der einfachste Weg ist, den Profilordner (.rssowl2) ins Dropbox-Verzeichnis zu legen. Dazu muss lediglich die folgende Zeile in der Datei rssowl/RSSOwl.ini ergänzt werden (rssowl ist das Installationsverzeichnis):

-Duser.home=/home/florian/Dropbox

Das funktioniert einwandfrei (mit dem entsprechenden Pfad auch unter Windows), hat aber den Nachteil, dass alle Installationen die selben Einstellungen benutzen. Wer unterschiedliche Einstellungen benötigt (z.B. für verschiedene Proxy-Einstellungen), kann die Konfiguration wo anders speichern.

In der Datei rssowl/configuration/config.ini müssen zusätzlich die “workspace location” sowie die “configuration location” getrennt werden.

Linux:

# The default workspace location
osgi.instance.area.default=@user.home
 
# The default configuration location
osgi.configuration.area=.rssowl2/configM9

Windows:

# The default workspace location
osgi.instance.area.default=@user.home
 
# The default configuration location
osgi.configuration.area=configM9

Damit wird die Konfiguration unter ~/.rssowl2/configM9 (Windows: im Installationsverzeichnis unter configM9) und die RSS-Feed-Datenbank im, in der home-Variablen angegebenen, Verzeichnis gespeichert. Die home-Variable sollte nun aber nicht mehr direkt auf das Dropbox-Verzeichnis verweisen, sondern auf etwas in der Art (rssowl/RSSOwl.ini):

-Duser.home=/home/florian/Dropbox/rssowl2

Bei beiden Lösungen besteht aber das Problem, dass Backup-Dateien im Dropbox-Verzeichnis erstellt werden. Es gibt bereits einen Bugreport, der die Backup-Problematik anspricht. So lange dieses Problem nicht gelöst wurde, kann man die Backupdateien ab und zu selbst löschen. Sie befinden sich in /home/florian/Dropbox/rssowl2/.metadata/.plugins/org.rssowl.core und haben Namen mit diesem Aufbau:

rssowl.db.backup
rssowl.db.onlinebak

Update: Konfigurationsdateien

Auf Wunsch von micha hier die kompletten Konfigurationsdateien:

Windows: config.ini

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
# RSSOwl 2.0 runtime configuration file
#
# This file contains a number of key/value pairs that are merged into the
# System properties on system startup.  The values control the way the
# runtime is structured and runs.
 
# Section Name allowing to read/write values using NSIS (see Bug 383)
[rssowl]
 
# The comma-separated list of locations to search for the splash screen file (splash.bmp).
# For each list element a subdirectory structure based on the pattern nl/<locale> is searched.
# The system binds to the first matching file.  There is no default value.
osgi.splashPath=platform:/base/plugins/org.rssowl.ui
 
# The comma-separated list of bundles which are automatically installed and optionally started
# once the system is up and running.  Each entry if of the form
#     <URL | simple bundle location>[@ [<startlevel>] [":start"]]
# If the startlevel is omitted then the framework will use the default start level for the bundle.
# If the "start" tag is added then the bundle will be marked as started after being installed.
# Simple bundle locations are interepreted as relative to the framework's parent directory.
# The startlevel indicates the OSGi start level at which the bundle should run.
# If this value is not set, the system computes an appropriate default.
osgi.bundles=org.eclipse.equinox.common@2:start,org.eclipse.update.configurator@3:start,org.eclipse.core.runtime@start
osgi.bundles.defaultStartLevel=4
 
# The product to run.  A given Eclipse configuration may contain many products.
# The product identified will supply the branding (window icons, title bar text) etc
# as well as define the default application to run.
eclipse.product=org.rssowl.ui.product
 
# The default workspace location
osgi.instance.area.default=@user.home
 
# The default configuration location
osgi.configuration.area=configM9
 
# Version Information
rssowl.buildId=2.0 Milestone 9
 
# End of file marker - must be here
eof=eof

Windows: RSSOwl.ini

1
2
3
4
5
-vmargs
-Xms15m
-Xmx192m
-Dosgi.requiredJavaVersion=1.5
-Duser.home=C:\Users\Florian\My Dropbox\exchange\rssowl2

Linux: config.ini

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
# RSSOwl 2.0 runtime configuration file
 
#
 
# This file contains a number of key/value pairs that are merged into the
 
# System properties on system startup.  The values control the way the
 
# runtime is structured and runs.
 
 
 
# Section Name allowing to read/write values using NSIS (see Bug 383)
 
[rssowl]
 
 
 
# The comma-separated list of locations to search for the splash screen file (splash.bmp).
 
# For each list element a subdirectory structure based on the pattern nl/<locale> is searched.
 
# The system binds to the first matching file.  There is no default value.
 
osgi.splashPath=platform:/base/plugins/org.rssowl.ui
 
 
 
# The comma-separated list of bundles which are automatically installed and optionally started
 
# once the system is up and running.  Each entry if of the form
 
#     <URL | simple bundle location>[@ [<startlevel>] [":start"]]
 
# If the startlevel is omitted then the framework will use the default start level for the bundle.
 
# If the "start" tag is added then the bundle will be marked as started after being installed.
 
# Simple bundle locations are interepreted as relative to the framework's parent directory.
 
# The startlevel indicates the OSGi start level at which the bundle should run.
 
# If this value is not set, the system computes an appropriate default.
 
osgi.bundles=org.eclipse.equinox.common@2:start,org.eclipse.update.configurator@3:start,org.eclipse.core.runtime@start
 
osgi.bundles.defaultStartLevel=4
 
 
 
# The product to run.  A given Eclipse configuration may contain many products.
 
# The product identified will supply the branding (window icons, title bar text) etc
 
# as well as define the default application to run.
 
eclipse.product=org.rssowl.ui.product
 
 
 
# The default workspace location
 
osgi.instance.area.default=@user.home
 
 
 
# The default configuration location
 
osgi.configuration.area=.rssowl2/configM9
 
 
 
# Version Information
 
rssowl.buildId=2.0 Milestone 9
 
 
 
# End of file marker - must be here
 
eof=eof

Linux: RSSOwl.ini

1
2
3
4
5
-vmargs
-Xms15m
-Xmx192m
-Dosgi.requiredJavaVersion=1.5
-Duser.home=/home/florian/Dropbox/exchange/rssowl2

Gestern habe ich hier mein kleines Projekt vorgestellt. Heute bin ich soweit, dass ich ein DEB für Ubuntu  in meinem PPA anbieten kann.

Folgendermaßen kann das Paket installiert werden

Diese Zeilen zu /etc/apt/sources.list hinzufügen:
deb http://ppa.launchpad.net/andreas-boettger/ppa/ubuntu jaunty main #mounttruecrypt
deb-src http://ppa.launchpad.net/andreas-boettger/ppa/ubuntu jaunty main #mounttruecrypt

Dann den Key hinzufügen

sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 46C4E33F

Die Paketliste aktualisieren:
sudo apt-get update

mounttruecrypt installieren
sudo apt-get install mounttruecrypt


Veröffentlicht in Truecrypt, Ubuntu, Ubuntuusers.de

podcast09Die letzte einstellige Tuxtux-Podcast-Folge und es geht unter anderem um Bildbearbeitung unter Linux, den Ubuntu Software Store, Comicstrips und und und. Ausserdem sage ich in dieser Folge ungefähr 80mal das Wort “sozusagen”. Ist ja auch was, sozusagen. Gegen Ende hin rufe ich dann zur Mithilfe auf, der Tuxtux-Podcast will inhaltlich verankern und ausserdem muss der ganze Krempel mal endlich unter die Creative-Commons gestellt werden. Wird ja auch Zeit, das die Inhalte mal so langsam lernen auf eigenen Beinen zu stehen und so… Und nun die Shownotes im Detail. Sozusagen.
Releases

Blogschau

Tutorials

Feedback

  • Bernd
  • zeroathome
  • Änderungen beim Tuxtux-Podcast
  • Creative-Commons-Einbindung

weiteres Feedback gerne via:

Podcast abonnieren

pixelstats trackingpixel

Die Gerüchteküchen brodelten ja schon seit einiger Zeit, doch von Samsung selber war nichts zu erfahren. Nun endlich hat Samsung wieder ein Update für das Samsung Galaxy bereitgestellt. Eine neuere Firmware gab es schon seit Wochen in Italien auf neu gekaufte Galaxys. In Deutschland wurde heute nun endlich ebenfalls nachgelegt. Ein Update “Over the Air”, oder mit anderen Betriebsystemen wie Windows ist leider nach wie vor über offizielle Wege nicht möglich.

Die Gerüchte

Wie eingangs erwähnt wurde in Italien bereits schon länger eine aktuellere Firmware verteilt. Laut dem italienischen Portal HDBlog.it (hier die grausame Übersetzung via Google Translate) bietet die neue Firmware nun folgende Verbesserungen…

  • Mehr freies RAM nach dem Start (ca. 20MB)
  • Stabileres System, hoffentlich sind die Abstürze Geschichte.
  • Fehler gelöst (Sperrtastenproblem)
  • Akku, hoffentlich ist damit die erbärmliche Akkulaufzeit gemeint
  • Alles flüssiger

Das Update durchführen

Wie beim ersten Update von vor ein paar Wochen wird wieder das Telefon fast vollständig zurückgesetzt. Alle Daten im internen Speicher gehen verloren! Daher solltet Ihr vor dem Update dringend eure Daten von der internen Speicherkarte auf den PC kopieren, die optionale Speicherkarte vorsichtshalber aus dem Handy nehmen und wenn ihr wollt Eure Einstellungen, SMS, Logs usw. via MyBackup sichern. Allerdings bleiben Daten auf der internen SD-Karte erhalten. Trotzdem ist eine Sicherheitskopie nie eine schlechte Idee…

Die in der Google Cloud hinterlegten Daten wie Mails, Termine, Kontakte usw. sind natürlich sicher. Sie werden nach dem Update automatisch wieder synchronisiert. Bezahlte Anwendungen können nach dem Upgrade wieder kostenlos aus dem Market installiert werden. Wer viele Anwendungen installiert hat, der kann mit dem App manager eine Liste mit den installierten Anwendungen machen und diese nach dem Upgrade wieder einspielen. So kann man sich viel Zeit sparen.

Für das Upgrade braucht man eventuell die aktuelle Version des Samsung New PC Studio. Der Download (Achtung 117MB groß!) des Programms ist kostenlos über samsungmobile.de möglich.

Die Installation der neuen Firmware ist dann recht einfach. Man startet Samsung New PC Studio, steckt das Galaxy an den USB-Anschluß und aktiviert die USB-Verbindung am Gerät. Wieder muss man jedoch darauf achten, dass im Galaxy unter “Einstellungen -> Telefoninfo -> Weitere Einstellungen” die Option “Verbindung nur als Massenspeicher möglich” deaktiviert ist, sonst bietet das New PC Studio kein Update für das Gerät an. Weitere Informationen zum Update-Prozess findet ihr hier in einem Blog zum alten Update.

Was bringts?

Noch kann ich zum Update nicht viel sagen, da die neue Firmware ist erst seit wenigen Stunden online. Nach wie vor gibt es keine exakte Anzeige der Akkukapazität. Neu ist ein Programm namens “Switchers” über das man GPS, WLAN, Bluetooth und den Auto sync de-/aktivieren kann. Switchers deckt somit im abgespeckten Umfang die Funktionalität der Programme Useful Switchers bzw. Toggle Settings aus dem Market ab und dient wohl als Argumentationshilfe von O2/Samsung, um die schwache Akkuleistung mit einem “benutzerfreundlichen” Programm kaschieren zu können, über das Stromfresser schnell ein- und ausgeschaltet werden können.

Unerfreulich – zumindest auf meinem Telefon – war das Problem, das die Telefonapplikation nach der Eingabe der PIN-Nummer mit der Meldung “Der Prozess com.android.phone wurde unerwartet beendet. Versuchen Sie es erneut.” abstürzte. Anrufe waren danach noch möglich, aber keine Datenverbindungen. Erst ein erneuter Factory Reset (siehe Zwei Wochen mit dem Samsung Galaxy und Android) behob das Problem.


Comments
Gestern habe ich eine längere Diskussion mit Sirko darüber geführt, was wohl Otto-Normalnutzer eines Rechners mit diesem veranstaltet. Ich meine wirklich Otto-Normalbenutzer, keine Spezialisten.

Meiner Meinung nach sind das:

- Web (Surfen, vielleicht sogar Webmail, Social Networks, Twitter, ...)
- E-Mail
- Digitalphotos verwalten
- MP3
- Office (da beginnen sich schon die Geister zu scheiden, das brauche selbst ich nicht)
- Terminplanung (PIM)

Und das ganze immer stärker auf einem Notebook oder Netbook, die haben die Desktop-Rechner mittlerweile abgehängt.

Jetzt seid Ihr dran: Welche Aufgaben - denkt Ihr - löst Otto-Normalnutzer mit seinem Rechner?

Ab in die Kommentare!

Die kleinen niedlichen Dinger Netbooks haben ihren Siegeszug ja schon lange angetreten und auch hier waren sie ja bereits des öfteren Thema. Mittlerweile gibt es ja schon eine ganze Menge and speziellen Distributionen für diese niedlichen Teile. Vielleicht mal an der Zeit einen kleinen Kurzüberblick zu schaffen. Sozusagen ein Distributions-Salat für Netbooks.

DebianEeePC ist an sich keine eigene Distribution sondern ein wie dass im Projekt genannt wir “Debian Pure Blends”, dass heisst diesem Subprojekt geht es nicht darum, eine eigene Distribution zu schaffen sondern ein echtes Debian-System auf dem Eee laufen zu lassen. Das System setzt auf den normalen Standard-Kernel von Debian, in den FAQ des Projektes steht auch warum. Hier kann man auch keine angepaßte Oberfläche oder ähnliches erwarten, eben ein echtes Debian und auf dessen gesamte Repository kann man dann natürlich zurückgreifen. Bei einiger Hardware kann auch sicher ein manuelles konfigurieren erforderlich sein. Zur Installationsanleitung geht es hier.

Puppeee - Puppy Linux als Basis dieser Distribution war immer eine platzsparende und schnelle Linuxdistribution. Normalerweise wird Puppy aus den Quelltexten kompiliert. Man kann aber Slackware-Pakete konvertieren und installieren. Das ganze scheint aber bisher kein richtiges Projekt zu sein, es gibt keine eigenen Webseiten oder ähnliches, den Hinweis darauf findet man im Puppy-Linux Forum zusammen mit den Links zum Download von Images. Laut Desktoplinux bringt Puppeee neben einem Browser und einem Mailclient, Abiword als Textverarbeitungsprogramm, XMMS als Media player, Xine als Movieplayer, GQView als Bildbetrachter, Audacity zum editieren von Soundfiles, gftp als FTP-Client und Skype mit.

FluxFlux ist eim Remastering von PCLinuxOS und fluxflux-eee wieder eine Abart dieser eigentlichen Livedistribution. Ziel war es eine Distriubution gerade für ältere hardware zu schaffen und deis ist dann auch wirklcih für Installationen auf den etwas schmalbrüstigeren Netbooks verwendbar. Als Desktop kommt hier Openbox zum Einsatz, mit ROX-Filer damit man einen drag&dropfähigen virtuellen Desktop anbieten kann, auf dem sich dann auch Icons platzieren lassen. Der Thunar Volume Manager (Thunar-volman) aus dem XFCE-Desktopprojekt sorgt mit Hilfe von ivman und HAL dafür, dass man auch auf Plugin-Geräte via automount zugreifen kann. In der Liveversion setzt man hierbereits auf den pcmanfm des LXDE-Projektes. Ich denke zu diesem Desktop wird sich das Projekt in naher Zukunft etwas mehr bewegen. Das durchaus sehr interessante Privatprojekt findet man hier.

Eeebuntu - Von eeebuntu ist ein Ubuntu-Derivat und gibt es 3 Varianten, Standard, Base und NBR (Netbookremix). Bei ersteren erhält man jede Menge Softwarepakete inklusive dem heute scheinbar unverzichtbaren Eyecandy in Form von Compiz, es ähnelt der normalen Ubuntu Standardinstallation. Base hingegen enthält nur die nötigsten Bestandteile und der NBR verfügt über eine an die Netbooks angepaßte Desktopoberfläche, die dem anfnags mit dem EEE ausgelieferten Xandros ähnelt. Wie der Name bereits zum Ausdruck bringt ist eeebuntu ein an den Asus Eee PC angepasstes Ubuntu-Derivat

Easypeasy trug vorher den Namen Ubuntu eee, um allerdings rechtliche Probleme mit Canonical auszuschließen wurde die Distribution umbenannt. Das man befürchtete mit Canonical in Rechstreitigkeiten wegen des Markennamen Ubuntu zu kommen mag auch daher rühren, dass man neben freier Software auch proprietäre Softwar wie Skype mitliefert und einige proprietäre Treiber. Vielleicht auch gerade deshalb erfreut sich diese Distribution großer Beliebtheit.

Firefly basiert auf dem recht relativ jungem ArchLinux, welches ebenfalls nach einem minimalistischen Prizip gebaut wird und nutzt auch dessen Paketmanagment. Firefly setzt als Windowmanager auf den flinken LXDE, die Entwickler schreiben sie bieten keine Netbook orienteirte Arbeitsoberfläche, weil sie den Nutzer nicht beschränken möchten. Die Distrbution bringt die wichtigsten Applikationen mit.

Kuki Linux ist eigentlich nur für eine Art Netbook gedacht den Acer Aspire One, die portugiesiche Distribution setzt auf XFCE als Desktop und bringt die wichtigesten Programme für den täglichen Gebrauch mit. Kuki Linux ist übrigens ein Ubuntu-Derivat.

Jolicloud ist ein französisches Ubuntu-Derivat, das wie der Name sagt eher auf das Prinzip “Internet Operating System” setzt. Jolicloud bietet eine eigene Benutzeroberfläche auf der Webdienste wie Twitter, Skype, Facebook, Dropbox, meebo und andere Webanwendungen integriert sind. Jolicloud setzt auf einen zentralisierten Applikation-Katalog, ähnlich dem Applikation Store von Apple. Bis jetzt befindet sich Jolicloud im Alphastatus und man muss sich zum Testen einladen lassen.

Ein ähnliches Operating System für Netbooks bietet Good OS, die durch den WalMart-PC und dem mit ihm ausgelieferten Ubuntu-Derivat gOS bekannt geworden sind. Das Ganze ist eigentlich nicht viel mehr als ein Embedded Linux mit einem Browser, was Google freuen wird alles bei der Datenkrake machen. Auch bei bei gOS CLoud ist man noch in der Testphase.

Moblin und Goblin - über Moblin und dessen Hintergründe habe ich ja bereits zum Release der ersten Betaversion geschrieben. Da gibts aber dennoch noch etwas zu berichten. Nur wenige Tage nach dem Erscheinen der Betaversion von Moblin kündigte Andrew Wafaa in seinem Blog ein eigentlich ” streng geheimes” Projekt an Goblin. Das Moblin UI mit einem openSUSE Unterbau, er arbeitet sehr fleissig daran und mittlerweile ist es so etwas wie ein Subprojekt von openSUSE. Jakub Steiner hat jede Menge Icons und verdammt schicke Wallpaper zu diesem Projekt beigetragen. Andrew hat in der letzten Woche einen kleinen User-Guide zur Benutzung von Goblin in seinem Blog veröffentlicht. Insgesamt wird fleissig an Applikationen für Moblin gearbeitet. Da entstehen Programme wie Anjal als PIM für Netbooks, Cubano als Frontend für Banshee ist auch auf Netbooks optimiert  Da ist ein Firefox Abkömmling namens MeerKat entstanden, der auch als Plugin für FF zu haben ist und ein paar klinere Dinge noch mehr. Die Moblin/Goblin Sache ist für mich wohl die derzeit interessanteste Baustelle.

Xandros oder Linpus Linux bzw. Linpus Linux Lite, die schon standardmäßig auf EEEs ausgeliefert wurden, habe ich hier mal großzügig aussen vor gelassen. Ich weiß gar nicht ob ich alle Netbook-Distributionen erwischt habe, ich glaube zwar schon aber vielleicht kennt ja noch jemand die ein oder andere. Ich habe mal abgesehen, von den beiden “Internet Operating System”-Lösung, wo ich gar nicht weiß ob man das so richtig als Netbook-Distribution zählen kann, mich darauf beschränkt wirklich nur Distributionen auszuwählen, die speziell für Netbooks angeboten werden. Sicher kann man nahezu jedes Linux auf diesen installieren und gerade die kleineren sparsameren Versionen spielen hier ihre Trumpfkarte aus. Aber hier ging es um die die von vornherein dafür gedacht sind.

8. September 2009

Mit der fünften Alpha-Version von Ubuntu Karmic bauen die Entwickler auf die Verschlüsselung des Homeverzeichnisses durch ecryptfs.

Bereits mit dem Installer wird dem Benutzer die Möglichkeit offenbart das eigene Home-Verzeichnis komplett durch ecryptfs verschlüsseln zu lassen, hierbei genügt ein einziger Klick. Dies ist ein großer Vorteil gegenüber älteren Releases, wo nur eine Verschlüsselung eines einzelnen privaten Ordners innerhalb der eigenen Dateien angeboten wurde. Was uns wundert – wieso wird hier nicht direkt die aus dem Alternate-Installer gewohnte Vollverschlüsselung geboten? Es ist doch hinreichend bekannt, dass z.B. Daten in /tmp/ oder /var/www/ (im Falle eines Webservers) ausgelagert werden oder dass auch ein MySQL Server seine Daten außerhalb des Home-Verzeichnisses lagert. Die Idee ist sicherlich nicht verkehrt, bietet jedoch nur mäßigen Schutz für den vielseitigen Linux-Nutzer.
Bitte nachbessern!

Weiterführende Links:

via Dustin Kirkland


Comments

Windows 7 lässt nicht mehr lange auf sich warten – So startete Microsoft eine neue Kampagne, welche die Vorzüge von Windows Seven zu Linux darstellen soll. Die Mitarbeiter der Elektronikkette “Best Buy” bekamen z.B. das Angebot, das neue Betriebssystem von Microsoft für nur 10 US-Dollar zu kaufen, jedoch muss man an einer Windows-7 Schulung teilgenommen haben. Diese Schulung enthält unter Anderem auch einen Vergleich von Windows 7 zu Linux.

After completing this course you will be able to explain to customers the many benefits by choosing windows 7 instead of linux.

Ein objektiv Vergleich? Nein, ganz sicher nicht. So wird an Linux bemängelt, dass es fast unmöglich ist Kameras, iPods und MP3-Player auf Linux zu verwalten. (Banshee bietet zum Beispiel hervorragenden Support für iPods, meine Digitalkamera wurde sofort erkannt und mit F-Spot kann man auch seine Digitalbilder super verwalten) Auch Drucker und Scanner sollen unter Linux große Kompatiblitätsprobleme haben. Bei mir ging fast jede Hardware unter Linux “Out of the Box”. Einen autorisierten Support für Linux gibt es laut Redmond nicht. Komisch, dass es Red Hat, Canonical und auch Novell gibt. Außerdem gibt es keine Garantie dafür, dass Linux sicherer als Windows sei. Ein Virenprogramm oder ähnliches für Linux musste ich noch nie benutzen. Bei Windows hingegen, kommt man ohne Sicherheitsprogramm nicht aus. Bemeckert wird auch, dass es für Linux (genannt wird Ubuntu) mehrere Hundert Updates pro Monat geben soll. Es sei nicht ersichtlich, ob diese zwingend nötig oder nur optional sind. Ich empfehle euch diesen Artikel von Pro-Linux zu lesen – Screenshots zur Windows 7 Schulung könnt ihr hier finden. Kein feiner Zug von Microsoft …

Das Vereinlogo (c)lockpicking.org

Das Vereinslogo (c)lockpicking.org

In diesem Beitrag geht es mal nicht um IT-Technik sondern um die krasse Wirklichkeit. Auch wenn dieser Artikel mal nichts mit Ubuntu oder Linux zu tun hat, habe ich ihn ausnahmsweise trotzdem auch im Planeten veröffentlicht, da ich der Meinung bin, dass dieser auch für viele in der Open Source Szene interessant sein dürfte. Wie kann man ein Schloss in möglichst kurzer Zeit öffnen, ohne dass dies Beschädigt wird und natürlich ohne den Schlüssel für dieses zu haben?

Dies hat sich der Verein Sportsfreunde der Sperrtechnik – Deutschland e. V. (Lockpicking .org) zur Wettbewerbsmäßigen Aufgabe gemacht. Im Urlaub waren die zufällig auch vor Ort und haben Workshops angeboten und viel erklärt, aber auch sehr viel Möglichkeiten zum selber machen gelassen. Ich fand das ganze Thema ziemlich interessant und wollte es euch deshalb hier mal vorstellen, vielleicht interessiert sich der ein oder andere von euch ja auch dafür.

Erst mal erzähl ich ein paar grundlegende Sachen und dann zum Workshop.

Der Verein hat es sich zum Ziel gemacht, das Know-How der Schlossöffnung weiter zu verbessern und möglichst jedes Schloss öffnen zu können. Dieses Wissen darüber wollen sie sammeln und an die Vereinsmitglieder im Training weiter geben. Dabei ist dem Verein jedoch sehr wichtig, dass man immer in der Legalität bleibt. In den Vereinsregeln ist dies strikt festgehalten. Die Mitglieder öffnen immer nur Schlösser, die sie entweder besitzen oder von denen sie das Einverständnis des Besitzers haben. In kritischen Situationen (Schloss öffnen beim Nachbarn, weil die Tür zugefallen ist) lassen sie sich dieses Einverständnis schriftlich geben. Außerdem lassen sie Vereinsregeln zu den Wettbewerben und den Trainings keine Leute zu die Berufsmäßig mit der Schlossöffnung zu tun haben oder bei denen man davon ausgeht, das sie das Wissen kriminell anwenden wollen. Und mein Eindruck während des Workshops war, dass das von allen wirklich ernst genommen wird und nicht nur so dahin gesagt wird. Der ein oder andere hat auch von Kontakten zu Sicherheitsfirmen und Versicherungen erzählt, wo wohl wirklich sehr professionelle und gute Leute dabei sind, aber eben auf Grund der Vereinsregeln nicht zugelassen werden.

geschlossenes Schloss (c)Wikipedia.org

geschlossenes Schloss (c)Wikipedia.org

Zwischendurch schwang da auch immer wieder mal der Respekt vor einzelnen Personen bei Sicherheitsfirmen durch.

Nun aber mal zum Workshop.

Wir hatten erst an einer Plexiglastür gezeigt bekommen wie man eine zugefallene Tür nur mit einem Stück Plastik geöffnet bekommt. Dies geht schon mit einem ausgeschnittenen Stück aus einer PET Flasche, mit dem man Handelsübliche Haus und Zimmertüren sehr schnell und ohne weiteres auf bekommt. Dieser Trick ist denke ich mal recht bekannt, auch ich kannte ihn schon aus der Schule oder so. Wie das genau funktioniert beschreibe ich jetzt hier nicht, aber man kann es im Internet nachlesen, wenn man ein wenig sucht. Anschließend wurden uns die Schließzylinder und die verschiedenen Öffnungsmethoden gezeigt. Und dabei muss ich sagen ich und die anderen mit denen ich da war, waren wirklich sehr überrascht wie schnell dies geht und mit wie wenig Aufwand man ein Schloss, welches abgeschlossen ist geöffnet bekommt. Dies waren einfache, handelsübliche Schlösser, keine Sicherheitsschlösser. Auch ich habe nach relativ kurzer Übungszeit das ein oder andere Schloss geöffnet. Natürlich ist das eine Schloss einfacher als das andere, aber grundsätzlich geht mit Übung und Training ziemlich viel zu öffnen.

geöffnetes Schloss (c)Wikipedia.org

geöffnetes Schloss (c)Wikipedia.org

Nach den Öffnungsmethoden mit Spanner und Dietrich oder Elektropicker (mit dem es übrigens alles andere als leicht ist ein Schloss zu öffnen), ging es weiter zu Schlagschlüsseln, dabei verwendet man einen Schlüssel der besonders weit ausgefräst ist und schlägt mit einem kleinen Hämmerchen hinten drauf und durch den schnellen Schlag geht das Schloss dann unter Umständen auf, bei mir hat das nicht geklappt, aber als es mit vorgemacht wurde sah es sehr flott aus ;)

Also alles in allem finde ich das ein sehr interessantes Thema und ich hätte nie gedacht das man wirklich so schnell ein Schloss öffnen kann. Nun gut wieder was dazu gelernt. Wer mal Interesse hat das auszuprobieren, kann mal die Augen offen halten wann der Verein wieder einen wettbewerb hat oder einen Workshop anbietet, ist des öfteren. Vielleicht sieht man ihn ja auch auf dem CCC im Winter wieder.

Ein Pickset (c)Wikipedia.org

Ein Pickset (c)Wikipedia.org


Comments

Artikel von: Disfunctions.de - Das Blog der gnadenlosen Fehlfunktionen!

Lockpicking – Die Kunst des Schlösseröffnens

Ähnliche Artikel:

  1. Artikelserie “Meine Programme unter SystemX”
  2. Plesk – ein anfänglicher Erfahrungsbericht
  3. LEDLENSER vs. FENIX
  4. Ubuntu Software Store jetzt schon nutzen
  5. Mac Absturz – Es ist der schwarze Donnerstag

Ich habe ein kleines Bash Skript geschrieben, dass ich zum automatischen Anmelden von Truecrypt Laufwerken verwende. Das Skript muss dazu in eine oder mehrere udev-Regeln integriert werden.

BUS==“usb“, KERNEL==“sd?1″, ATTRS{serial}==“00e7ce59″, SYMLINK+=“Portable“, RUN+=“/usr/bin/mounttruecrypt -u andreas /dev/Portable“

Das Projekt ist hier gehostet.

/Edit

ATTRS{serial}==“00e7ce59″ ist natürlich anzupassen und auch der Name des Systembenutzers.


Veröffentlicht in Linux, Truecrypt, Ubuntuusers.de

In Foren fallen mir immer wieder Fragen von Linux-Anwendern zur Kapazität Ihrer Festplatten auf. Man wundert sich oft, warum nach dem Formatieren einer etwa 500GB großen Festplatte deutlich weniger freier Plattenplatz angezeigt wird, als eigentlich erwartet.

Dies liegt zum Einen an der unterschiedlichen Rechnungsweise der Festplattenhersteller, zum Anderen am Dateisystem Ext2/3 das üblicherweise einen Teil der Festplatte für das System reserviert. Ich versuche das Thema kurz zusammenzufassen…

Das Einheiten-Chaos

Der primäre Unterschied liegt in der unterschiedlichen rechenweise von Festplattenherstellern und Informatikern. In der “normalen” Welt sind wir die 10 als Vorsatz für Maßeinheiten gewohnt. Bei den Gewichtseinheiten wird immer mit 10 hoch irgendwas gerecht, also beispielsweise…

  • 1 Kilogramm sind 10^3 Gramm
  • 1 Tonne sind 10^3 Kilogramm oder 10^6 Gramm
  • usw…

Informatiker rechnen nun meist Binär. Daher verwenden sie die 2 als Präfix für Potenzen.

  • 1 Byte entspricht 8 Bit
  • 1 Kilobyte sind 2^10 Byte, also 1024 Byte
  • 1 Megabyte sind 2^20 Byte, also 1.048.576 Byte
  • usw…

Bei auf der 2 basierenden Einheiten sollte man daher eigentlich von Kibibyte, Mebibyte und Co. reden, doch im allgemeinen Sprachgebrauch macht das praktisch niemand.

Die Folge dieser unterschiedlichen Rechenweise: Eine vom Hersteller mit 1000 GB Speicherkapazität angegebene Festplatte wird vom Betriebsystem mit nur rund 932 GB ausgewiesen. Dem Marketing- und Kaufleuten der Festplattenherstellern kommt die größer aussehende Auszeichnung natürlich besser, als die “kleinere” Rechenweise der Informatiker.

Viel mehr will ich gar nicht auf diesen Unterschied eingehen. In der Wikipedia und selbst auf Spiegel Online finden sich wirklich gute Artikel, die das Thema auch dem Laien und nicht-Mathematiker erklären…

Ext2, Ext3 und Ext4 reservieren Speicher

Das eigentliche Thema ist die Tatsache, dass bei der Formatierung einer Festplatte mit Ext2 oder Ext3 (Ext4 scheint auch noch zu machen, allerdings scheitert tune2fs bei Ext4) als Dateisystem ein Teil der Festplatte für das System reserviert wird.

Zum Warum und Weshalb komme ich gleich, erst einmal kurz ein paar Zahlen… Ich demonstriere das an einer alten Festplatte mit vom Hersteller angegebenen 4,32GB. Schaut man sich die Ausgabe von df -h an, so sieht man dass von den real freien 4GB Speicherplatz nur 3,7 GB verfügbar sind

$ df -h
Dateisystem            Größe Benut  Verf Ben% Eingehängt auf
[...]
/dev/sdh1             4,0G  137M  3,7G   4% /media/disk-1

Der Grund dafür liegt darin, dass bei Ext{2,3,4} als Dateisystem von Haus aus 5% Speicherplatzes einer Partition für das System reserviert werden. Dies soll Fragmentierung verhindern und garantieren, dass wichtige Dienste IMMER Schreiben können, selbst wenn ein User des Systems die Platte zugemüllt hat. Die man-Page von tune2fs beschreibt die Funktion so…

$ man tune2fs
[...]
-m reserved-blocks-percentage

Set the percentage of the filesystem which may only be allocated by privileged processes. Reserving some number of filesystem blocks for use by privileged processes is done to avoid filesystem fragmentation, and to allow system  daemons,  such  as  syslogd(8),  to continue to function correctly after non-privileged processes are prevented from writing to  the  filesystem. Normally, the default percentage of reserved blocks is 5%.

Bei modernen Platten ist dieser reservierte Speicherbereich mit 5% natürlich recht groß, bei einer Platte mit 1000 GB werden zum Beispiel 50GB reserviert. Gerade wenn man eine Festplatte nur als Datenspeicher benutzt, kann man diesen Wert ruhig runtersetzen. Über den Befehl…

$ sudo tune2fs -m [Prozentsatz] /dev/sd[xy]

kann man dies über ein Terminal machen. Die Partition kann währenddessen eingehängt (aka gemountet) bleiben. Den Prozentsatz kann Ihr dabei frei auswählen auswählen. Die Partition muss man natürlich korrekt angegeben werden, Ihr findet die Partition etwa über fdisk heraus…

$ sudo fdisk -l
[...]
Platte /dev/sdh: 4327 MByte, 4327464960 Byte
255 Köpfe, 63 Sektoren/Spuren, 526 Zylinder
Einheiten = Zylinder von 16065 × 512 = 8225280 Bytes
Disk identifier: 0x16b6ac7b

   Gerät  boot.     Anfang        Ende     Blöcke   Id  System
/dev/sdh1               1         526     4225094+  83  Linux

Habt Ihr eine Partition nur mit Daten, so könnt Ihr den reservierten Speicherplatz komplett deaktivieren. Nach einem…

$ sudo tune2fs -m 0 /dev/sdh1
Setze den Prozentsatz reservierter Böcke auf 0% (0 Blöcke)

…steht auf der vorhin gezeigte Festplatte nun (fast) der komplette Speicherplatz auch zur Verfügung.

$ df -h
[...]
/dev/sdh1             4,0G  137M  3,9G   4% /media/disk-1

Die bereits nach der Formatierung belegten MB dienen dem Journal des Ext3-Dateisystem. “Ganz leer” bekommt Ihr die Platte mit Ext3 also nie.


Comments

Die Zeit rennt nur so dahin und damit sind wir schon bei der fünften Episode unseres Projekts DeimHart. Diesmal durften Dirk und ich Gäste begrüssen, Menschen aus Deutschland, nahe der Grenze zur Eidgenossenschaft: Ute und Roland erklären uns ihren Weg von Gentoo zu (K)Ubuntu. Sie sind – soweit ich weiss – noch immer unterwegs und Roland wird Gentoo wohl nie aufgeben. Und das ist auch gut so.

Ute und Roland

Es hat Spass gemacht, diese Folge zu produzieren und ich wünsche mir, dass wir in der Zusammensetzung wieder einmal etwas gemeinsam tun. Die Themen, welche uns alle Vier interessieren, sind ja so mannigfaltig.

Zur fünften Folge geht es hier lang (MP3 oder OGG, ca. 41 MB). Viel Spass beim Zuhören!

Ähnliche Artikel

Seit mehr als  drei Jahren wird an dem Programm zur Penetrationstestung von Funk-Netzwerken gearbeitet und heute ist die erste stabile Major-Version 1.0 erschienen. Zwischen der Veröffentlichung der Version 0.9.3 und der Final-Version erschienen zwei Beta-Versionen und 4-Release Kandidaten – seit damals hat sich viel getan.

Aircrack-ng mit stabiler Version 1.0Zur Aircrack-Suite sind mehrere Programme hinzugefügt worden. So ist es mit airbase-ng möglich seinen eigenen Accesspoint (kurz AP) zu erstellen. Dieser kann automatisch den Netzwerknamen (ESSID) anderer APs übernehmen und so den Klienten dazu bringen sich mit dem eigenen Netzwerk, also der Fälschung, zu verbinden. Das ermöglicht unter anderem einen Angriff auf ein Netzwerk obwohl man gar nicht in Reichweite des APs ist, sondern nur in Reichweite eines Klienten.

Der von Martin Beck und Erik Tews verfasste Artikel, Practical attacks against WEP and WPA, wurde mit dem Programm tkiptun-ng ins Praktische umgesetzt und wesside-ng ist ein exemplarisches Programm das es ermöglicht WEP verschlüsselte  Netzwerk mit einem einzeiligen Befehl zu knacken. Andere neue Programme sind airtun-ng, packetforge-ng, easside-ng, airserv-ng, airolib-ng, airdriver-ng und airdecloak-ng.

Neu ist auch die PTW2 Attacke, diese brauch deutlich weniger der sogenannten Initialisierungsvektoren (IV) und beschleunigt das Knacken von WEP Netzwerken erheblich. Damit ist es möglich die WEP-Barriere  in unter 2 Minuten zu überwinden. Das Angreifen eines WPA/WPA2 Netzwerkes wurde dank SSE2 Unterstützung ebenfalls deutlich beschleunigt – auch wenn noch kein GPU-Support, wie beispielsweise bei Pyrit existiert.

Mit diesem Release von Aircrack-ng sollte nun wirklich jedem klar sein, dass auf WEP kein Verlass mehr sein kann. Die aktuelle Version kann auf der Homepage im Quellcode heruntergeladen werden und funktioniert am besten unter Linux. Für den Kompilierungsvorgang unter Debian benötigt man um bauen benötigt man die SSL-Entwicklungsbibliotheken

# apt-get install build-essential libssl-dev

Außerdem hat man der Aircrack-Homepage ein neues Design gespendet. Für morgen haben wir ein Interview mit Thomas d’Otreppe, dem Gründer des Aircrack-Projektes, geplant, wir melden uns zurück!

Weiterführende Links:


Comments

7. September 2009

Da ich den Server extern zur Verfügung stelle, brauchte ich ein entsprechendes Konzept. Mein Gedanke war die Errichtung einer Subdomain-Struktur:

  • xyz.dyndns.org
    • projektverwaltung.xyz.dyndns.org
    • projektabc.xyz.dyndns.org

Das ganze sollte über vhost-Configs abgedeckt werden. Jetzt fehlt mir leider eine qualifizierte Übersicht über die DynDNS-Dienste, die in der Fritz!Box vorkonfiguriert sind und die über eine Wildcard-Option verfügen.

Auch wenn man das auf diversen Internetseiten lesen kann: DynDNS.org bietet Wildcards nur für PRO-Accounts an. Und zahlen wollte ich dafür natürlich nichts.

Also blieb mir nur übrig, eine Ordnerstruktur zu verwenden. Damit bleibt es bei der Technik mit .htaccess-Files, um Berechtigungen auf die Ordner zu vergeben.

Ich werde jetzt allerdings keine Details zu Adressen offenlegen, die Adressen kennen die Menschen, die sie brauchen. Admin-Web-Interfaces sind auch nicht installiert…

Mit Debian Squeeze ist upstart nicht nur mehr als Option sondern Standard-Initsystem. Dasjedenfalls gab Petter Reinholdtsen auf der Entwicklermailingliste bekannt. Das verwendetete Initsystem würde nicht mehr zum Linuxkernel passen, der immer mehr ereignisorientert arbeitet. Das führt zur Problemen bei der Hardwareerkennung. In Squeeze sollen so bereits die gröbesten Probleme beim Booten behoben sein.

Upstart ist ein von Canoncial entwickelter ereignisorientierter initd, der auf  sysvinit, zu dem es auch vollständig abwärtskompatibel ist. Upstart soll die Probleme des System-V-init bezüglich Geschwindigkeit, wechselnder Hardware und dem Neustarten von Prozessen beheben. Zwar macht Upstart den Startvorgang selbst noch nicht schneller, es legt aber die Grundlagen dafür. Upstart erlaubt das gleichzeitige Ausführen von Jobs unabhängiger Ereignisse. Das beschleunigt den Start des Systems und ermöglicht damit auch eine bessere Handhabung von austauschbarer Hardware.

Upstart konnte bereits seit Ubuntu 6.10 wahlweise installiert werden und auch Fedora setzt seit Version 9 Sulphur auf das System

Seitdem ich die Möglichkeit habe GPS-Tracks via Samsung Galaxy und MyTracks aufzuzeichnen, interessiert es mich die gewonnenen Tracks Anderen zur Verfügung zu stellen.

Via Google Maps geht das recht einfach, doch die OpenStreetMap hat einige Vorteile wenn die Tracks zu Fuß oder mit dem Rad erstellt wurde. Kleinere Radwege oder Wanderwege sind oft nur bei der OSM ordentlich geocodiert. Google Maps beschränkt sich eher auf befestigte Straßen, die auch von Autos befahren werden können.

GPS-Track via OSM in Webseite einbetten

Allerdings ist es etwas aufwändiger die OSM in eine Webseite einzubetten, bei Google Maps gibt es rechts oben direkt die Option den Code zum Einbetten der Karte in eine Webseite zu generieren, solche eine Option fehlt in der OpenStreetMap noch. Doch mit einem praktischen Skript von Rejo Zenger, klappt das auch mit der OSM in wenigen Minuten…

Ihr müsst nicht mehr tun, als Euren .gpx-Track auf Euren Webspace zu laden, und dann das Skript von Rejo Zenger verwenden. So muss man keine Skripte auf dem eigenen Webspace installieren. Letztendlich sieht der Code etwa so…

<iframe
src="https://rejo.zenger.nl/topo/osm/?fn=[url-der-gpx-datei]"
	width="[breite-des-eingebetteten-bildes]"
	height="[hoehe-des-eingebetteten-bildes]"
	frameborder="0">
</iframe>

…aus. Ihr müsst die URL zur .gpx-Datei, sowie Höhe und Breite der Karte eintragen. Das Ergebnis könnt Ihr hier betrachten…

Dabei werden automatisch die wichtigen Lizenzinformationen der OSM in die Karte eingezeichnet.

Höhenprofil generieren und einbetten

Optional könnt ihr auch ein Höhenprofil generieren das Ihr ebenfalls ohne den Einsatz von Skripten in Eure Seite einbetten könnt. Ich würde dazu gpxplot verwenden, das ebenfalls eine API bietet, die Ihr via…

<img src="http://gpxplot.appspot.com/api/0.1.2/plot?gpxurl=[url-der-gpx-datei]&output=png" alt="Elevation profile" width="600" height="400">

…nutzen könnt. Das Ergebnis ist ein Bild mit dem Höhenprofil und einer Skala. Achtet darauf für das Bild ein Höhen/Breiten-Verhältnis von 2/3 zu verwenden, also beispielsweise 400×600 Pixel, sonst werden die Schriften nicht schön skaliert.

Elevation profile

Google Maps hat natürlich den Vorteil, dass der Betrachter der Webseite auf die Satellitenansicht umschalten kann, doch die sympathischere Lizenz und das bessere Kartenmaterial (wenn es um kleine Wege geht) machen in meinen Augen den Nachteil wieder wett. Man kann ja noch zusätzlich auf Google Maps verlinken.


Comments