ubuntuusers.de

25. Juli 2011

Vor kurzem ist die neue Version des freien Mapeditors Tiled (wird unter anderem bei Invertika benutzt) erschienen. Die neuen Features sind dabei ziemlich reichhaltig:

  • Unterstützung von gespiegelten Tiles
  • Copy & Paste Support für Objekte
  • Support für das Verschmelzen von Ebenen
  • Lua Export Plugin
  • Droidcraft Plugin (von mir :) )

Neben diesen Änderungen gibt es noch viele weitere Dinge welche verbessert wurden. So wurde zum Beispiel das Automapping verbessert vor allem bezüglich der dabei entstandenen Speicherbelastung. Auch die Übersetzungen wurden natürlich wieder aktualisiert. Tiled kann dabei unter http://www.mapeditor.org/ für die Systeme Linux, Windows und Mac OS X bezogen werden.

24. Juli 2011

Linux/Ubuntu braucht mehr Software für den Professionellen Bereich, das hört man immer wieder und stimmt teilweise auch. Anscheinend gibt es bei der Videobearbeitung noch keine konkurrenzfähige Open Source Alternative zu den Programmen für Windows/Mac, das soll sich nun mit Novacut ändern. Leider fehlt, wie so oft, noch etwas Geld um die weitere Entwicklung zu finanzieren, deshalb sammelt Novacut nun über Kickstarter.com.

Nur noch 5 Tage dann muss Novacut die 25’000$ an Spenden zusammen haben sonst kriegen sie nichts (die Spenden werden erst von der Kreditkarte abgebucht wenn die 25’000$-Limite erreicht ist).

Weil ich gestern Abend etwas Glück beim Roulette hatte und der Dollar-Kurs so tief ist (1$ = 0.82 CHF) hab ich auch etwas gespendet :D  Ich persönlich hab eigentlich nichts mit Videobearbeitung am Hut, aber mir gefällt die Idee und hoffe das Künstler durch Open Source Software eher dazu tendieren ihre Werke unter der Creative Commons Lizenz zu veröffentlichen, wovon ich dann auch wieder profitieren könnte ;)

Es fehlen noch ein paar Tausend.. Novacut auf Kickstarter

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Da ich in der letzten Zeit bei einigen Leuten Ubuntu 10.04 installieren musste, habe ich noch ein paar zusätzliche Backports erstellt.

Zuerst wäre da die Lucid-Version des Paket “nspluginwrapper” (PPA siehe Artikel “Backport des Pakets “nspluginwrapper””).

Zusätzlich habe ich mir die Mühe gemacht alle Pakete, welche das Artwork von Ubuntu 11.04 bereitstellen, auf Ubuntu 10.04 aka Lucid Lynx zurückzuportieren. Den Backport des Artworks habe ich gemacht, weil ich persönlich die Optik von Ubuntu 11.04 ansprechender finde als die von Ubuntu 10.04 und ich bisher kein PPA fand, welches dieses Artwork auch für Ubuntu 10.04 bereitstellt.

Um das Artwork einzuspielen, reichen die folgenden Befehle:

sudo add-apt-repository ppa:glasen/ubuntu-artwork-backport
sudo apt-get update
sudo apt-get upgrade

Ich habe die Versionsnummer so angepasst, dass es bei einem Update auf Ubuntu 10.10 diese Pakete normal aktualisiert werden und gegen dessen Versionen ersetzt werden. So sollte es aus dieser Richtung keine Probleme bei einem Upgrade geben.

23. Juli 2011



Falls ihr hungrig nach verwendungsfreien Cliparts seid, dann ist die OpenClipartLibrary wohl die Anlaufstelle schlecht hin. Das ein oder andere Mal ist ja auch bereits darüber geschrieben worden. Dem Artikel von Roman blieber nur anzufügen, dass es verschiedene Paket für Ubuntu als auch für openSUSE gibt. Beide Distributionen halten ein Paket bereit welches OpenOffice_org-openclipart bzw. libreoffice-openclipart heisst und die Cliparts in den benötigten Pfad des entsprechenden Office installiert. Ubuntu selbst hält ein Paket bereit, welches SVG als auch die PNG dazu enthält und wie auch openSUSE, beides getrennt. openclipart-svg bzw. openclipart-png. Die ganze Sache hat allerdings einige Haken, erster Haken OOo als auch LibreOffice verwenden W3C-konform SVG also nicht alle SVG werden fehlerfrei dargestellt. Zweiter Haken das letzte “Release” einer Downloadversion von OCAL war im März 2010 (inoffiziell gibt es noch eine Version 2.3)  und auf diesem basieren die Pakete maximal. Der komplette Download dieser Pakete verursacht einfach zu viel Traffic auf den Servern des Projektes, die ohnehin schon manchmal total überlastet sind. Schliesslich werden vom Server PNG generiert von den SVG die der Library hinzugefügt wurden. Das geht manchmal in wenigen Minuten, dauert aber manchmal auch Stunden. Ausserdem kann man ja das Clipart als Nutzer auch in der gewünschten Auflösung abfragen, auch diese Bilder werden vom Server generiert. Nutzer von Inkscape können ja auch direkt die SVG in Inkscape importieren, wobei der Suchalgorythmus als auch die Antwortgeschwindigkeit zu wünschen übrig läßt. Die Exportfunktion, über die Inkscape einst verfügte, ist derzeit auf Eis gelegt und nicht verfügbar, bis die OCAL-Entwickler bessere Lösungen für Tagging usw. entwickelt haben. Da sehe ich aber Schwarz.

Seit geraumer Zeit benutzt OCAL das Aiki Framework als Plattform. Seit dem ist OCAL eine Dauerbaustelle in den letzten Monaten sind viele neue Funktionen hinzugekommen, wie zum Beispiel die Collections. Die waren übrigens letzte Nacht möglich herunter zu laden, da geht also die Reise hin. Es fehlt allerdings absolut an Manpower. Falls sich also jetzt jemand berufen fühlt an Aiki bzw. der OCAL als Entwickler mitzuarbeiten, nur zu! Es wäre ja schade in Zukunft auf dieses Projekt und die enthaltenen Cliparts verzichten zu müssen. Das sind übrigens die meinigen des Monats Juli:

tacopancakeshamburger menusandwich menuBratwurstsandwichPizzachicken nuggetschicken nuggets menufried chickenice creampommes fritesSoftdrinkCheeseburgerDoughnutHot DogPopcornMais

Ich selbst werde mich wohl nächsten Monat(en) ein wenig um die Überarbeitung der GUI bemühen, da gibt es durchaus Dinge die mich absolut nerven. Wie zum Beispiel, dass ich mich ausloggen muss, um dem Link eines Tag zu folgen, belieb ich eingeloggt würde sich das Bearbeitungsfenster öffnen. Ich sehe aber auch keine “Likes” wenn ich eingeloggt bin und die Übersichtsseite meine Cliparts öffne, die sehe ich nur im Clipartfenster selbst oder in einer Sammlung. Und so gibt es so einige Sachen, die man da in Sachen Usability tun kann. Da gibt es auch versteckte Links wie zum Beispiel http://openclipart.org/bydate , wo man die Übersicht der letzten Uploads sehen kann und nicht nur die letzten Sechs.  Wo ein Clipart teilweise recht schnell verschwunden ist von der Frontpage. Dabei dürfte wohl auch so einiges an Performance herausspringen. Ich jedenfalls finde die OpenClipartLibrary ist ein nützliches Projekt, dem man etwas Zeit widmen kann.

22. Juli 2011

Heute hat das freie Creative Commons Web-Radio-Projekt Radio GFM sein Programm in drei Musikrichtungen aufgeteilt. Die Eröffnungssendung gibt es übrigens auch als Podcast zum Download.

  • Radio GFM – RockPop (bisher Radio GFM)
  • Radio GFM – Electro
  • Radio GFM – Metal

Nachdem ich bereits seit über einem Jahr blogge und gleichzeitig ehrenamtlich in der Musikredaktion von Radio GFM – GEMA-FREIE MUSIK tätig bin, habe ich mich entschlossen, die Synergien zwischen diesen beiden Projekten (Blog/Radio GFM) zu analysieren und sie effizient zu bündeln.

Die hier vorgestellten Songs (“Musiktipp der Woche“) werden zukünftig umgehend direkt in die Playliste des  Web-Radio-Projekts von Gregor Atzbach einfliessen und gespielt.

Ein Schritt, von dem beide Seiten profitieren und mir einiges an Zeit einspart.

Dank dieser Partnerschaft wird das Musik-Repetoire von Radio GFM abwechslungsreicher und die Musikempfehlungen werden in Marcos Blog neben dem freien Vorbis- nun auch im populären MP3-Format angeboten.

Radio GFM hat ein Computer-Umsteiger-Kurs (GFM Tux) im Programm für bisherige Windows-Nutzer. Die Sendungen gibt es sowohl Live als auch als Podcast zum Download.

Links
Radio GFM – GEMA-FREIE MUSIK
Gregor Atzbach Homepage
Radio GFM bei Twitter
Radio GFM bei Identi.ca

An meinem Rechner sind zwei Festplatten extern via USB angeschlossen – beide mit Truecrypt verschlüsselt. in Truecrypt selbst habe ich Favoriten angelegt, wodurch die Platten in meinen Augen schneller und mit weniger Aufwand eingehängt werden können.

Nun hatte ich allerdings das Problem, dass die Platten immer mal anders erkannt wurden. Hieß die Platte ursprünglich /dev/sdj heißt sie nach einem Neustart gerne mal plötzlich /dev/sdk – zum Beispiel wenn ich den Kindle oder mp3-Player am Rechner angeschlossen hatte. Dadurch funktionierten die in Truecrypt angelegten Favoriten nicht mehr. Man musste die Datei ~/.TrueCrypt/Favorite Volumes.xml erst wieder von Hand anpassen, damit die Favoriten wieder funktionieren.

Mit der Zeit ging mir das ständige hin und her Anpassen auf die Nerven, also suchte ich nach einer Lösung, wie man das umgehen kann. Auf Twitter wurde ich dann von Jan auf den udev-Artikel im Ubuntuusers-Wiki hingewiesen. Anhand der Seriennummer den Platten kann man diesen jeweils einen Symlink zuweisen, den udev verwendet, um auf den eigentlichen Device-Namen zu verlinken, egal wie die Platte vom System erkannt wird.

Eine Anleitung spar ich mir an dieser Stelle einfach mal, denn ich finde das ist im udev-Artikel einfach und ausführlich erklärt.

Der folgende Text ist kurz nach einem Update von Ubuntu Version 10.10 auf 11.04 entstanden und daher etwas emotional geschrieben...

Als Linux-User ist man ja oft zu Kompromissen bereit, aber jede Flexibilität hat ihre Grenzen und meine endet wohl mit und bei Unity. Was hat man sich dabei gedacht? Mag sein, dass es irgendwie besonders modern wirkt und auf Netbooks, sowie kleinen Monitoren vielleicht sogar ganz sinnvoll ist, allerdings mutet der „Zwang“ zum Umstieg auf selbige, revolutionäre Neuerung mehr als seltsam an.
Zuerst die Umstellung der Fenster-Knöpfe auf die linke Seite, wo ich als PC User diese schon seit einer gefühlten Ewigkeit auf der rechten Seite nutze und nun das ach so revolutionäre Unity.
Zwar konnte man die besagten Knöpfe mittels Befehl über das Terminal wieder auf der „richtigen“ Seite platzieren und auch Unity bietet den unwilligen Usern noch eine s.g. klassische Oberfläche an, die sich kaum von der aktuellen Gnome 2 Variante unterscheidet, allerdings soll diese schon mit dem nächsten Versionssprung verschwinden...

Auf ganz normalen Desktop-Rechnern mit Bildschirmen jenseits der 10 Zoll wird man von dem „modernen“ Schwarz nahezu erschlagen. Man kann auf normalen Weg keine Dateien auf dem Desktop ablegen und die Übersicht der geöffneten Fenster ist zu einem farbigen Knopf auf der linken Seite verkommen, der zwar auf viele Arten leuchten kann, aber von der Benutzerfreundlichkeit einem Stein gleichkommt. Allerhand Tastenkombinationen wurden eingeführt, die jeden Anfänger noch mehr überfordern werden... alles in allem will man wohl mit dem Design neue User ansprechen und stößt damit alten Gewohnheiten vor den Kopf, die Benutzerfreundlichkeit hingegen ist dank vielerlei Tastenkombinationen eher etwas für Geeks, da sich unbedarfte Nutzer selbst mit Strg + C / V schwer tun.

Aber das ist ja nicht alles in der schönen, neuen Linux-Welt, was mich aufzuregen weiß, denn man könnte ja noch auf Gnome 3 zurück greifen... (z.B. über die Distribution Mint oder Fedora)... ABER auch der neue Gnome 3 Desktop (der über kurz oder lang auch auf Mint landen wird, welches sich noch tapfer dagegen erwehrt) ist ein Krampf in Sachen Benutzung und Aussehen. Minimalismus ist ja angesagt wie nie zuvor (siehe meine Meinung zu Unity oben), aber Gnome hat nun weniger Charme als eine DOS Anwendung. So prangt das Panel in schwarz und mit gerade einmal 3 „Knöpfen“ (ich traue mich kaum, diese so zu nennen) am oberen Bildschirm und schreit einem förmlich entgegen, dass nun die „Kunst“ eingezogen ist. Mag sein, dass man mittels Gnome-Tweak das - auf css und Javascript basierende - Menü einigermaßen anpassen und als etwas fähigerer User auch noch weit mehr heraus holen kann, aber WARUM hat man Gnome nicht einen kleinen Rest Würde in Sachen Design von vorne herein mitgegeben?!

Aber wie sagt der Volksmund: Kunst liegt im Auge des Betrachters.

Lange Rede kurzer Sinn: Umstieg. Es stimmt mich schon traurig, da ich lange und gerne Ubuntu genutzt und vielen dieses Betriebssystem empfohlen habe. Aber den eingeschlagenen Weg werde und möchte ich zumindest auf meinem, alltäglich genutzten Rechner nicht mitgehen. Unverzichtbar wird wohl Ubuntu auch weiterhin auf Netbook und HTPC( XBMC ) laufen.

Alternativen? Viele! Derer drei möchte ich nun einmal ganz kurz umreißen:

Kubuntu
Auf KDE basierendes „Ubuntu“ - leider scheint mir KDE hier nicht besonders gut integriert zu sein, das ganze System fühlt sich irgendwie wacklig an und ich befürchte, dass meine Daten auf einer Floppy-Disk besser geschützt wären. Zwar kann der subjektive Eindruck täuschen, allerdings möchte ich mit einem guten Gefühl vor meinem PC sitzen und nicht denken, dass im nächsten Moment wieder alles verschwunden ist. Vielleicht wirkt aber auch einfach der Fade Beigeschmack von der Vorgehensweise bei Unity nach...


Mint
Ein Fork von Ubuntu 11.04, allerdings mit dem alten Gnome 2 Desktop. Sehr interessante Distribution, da auch von Hause aus schon alle möglichen Erweiterungen / Pakete zur Medienwiedergabe mitgeliefert werden. Wer keinen großen Sprung machen möchte bzw. nicht willens ist, sich großartig umzustellen, der ist mit Mint sehr gut beraten. Mich hat allerdings die Tatsache vom Umstieg auf Mint abgehalten, dass es nicht auf lange Zeit Gnome 2 nutzen kann und früher oder später auch bei Version 3 landet und ich möchte nicht jährlich die Distribution wechseln müssen.


OpenSuse
Der totale Umstieg... KDE und eine vollkommen andere Grundlage. Da ich schon einmal vor mehr als 10 Jahren in diese Distribution geschaut habe, war die Neugier groß, was sich so alles getan hat – und es ist eine ganze Menge. Aber so ein Umstieg verlangt Geduld, da man sich an etliche neue Programme gewöhnen muss (auch wenn man die alltäglichen wie Chromium und Firefox natürlich auch hier findet) und diese hätte man auch für das Erlernen der Unity Eigenarten oder die Einrichtung von Gnome 3 verwenden können. Aber wenn die Entwickler von Gnome und Unity in solchem Maße die alten User vergraulen, dann trenne ich mich für meinen Teil von deren Arbeit. Eine kleine Anleitung zum Überwinden der ersten Hindernisse werde ich in den kommenden Tagen veröffentlichen.

“Hier ist es. Vergangen sind die Tage von 2.6.<großeZahl>, und 3.0 ist raus”.

Mit diesen Worten gab Linux-Schöpfer Linus Torvalds Kernel-Version 3.0 frei – nach insgesamt 20 Jahren der Linux-Entwicklung. Erneut betonte Torvalds, dass die neue Version keine großen Änderungen beinhaltet, sondern lediglich mit den alten, unübersichtlichen Versionsnummern bricht.

Zu den dennoch vorhandenen Neuerungen gehören etwa die Verbesserung des Btrfs-Dateissystems, welches nun die automatische Defragmentierung und eine verbesserte Performance besitzt. Ebenfalls ausgebaut wurden der dom0-Support für XEN-Hosts sowie der Wake-on-WLAN-Support. Daneben gibt es wieder massenweise neue Treiber für alle Geräteklassen. Ebenfalls konnten die Kompatibilitätsprobleme der neuen Versionsnummern behoben werden, sodass der Kernel nicht wie in den Vorab-Versionen die Nummer 3.0.0 trägt. Durch Änderungen bei den Flags, mit denen der Kernel standardmäßig kompiliert wird, konnte die Code-Größe verringert werden.

Gleichzeitig mit der Veröffentlichung der neuen Kernelversion wurde das Merge Window für Version 3.1 geöffnet. Während des Merge Window können die Kernelentwickler Code-Vorschläge für die nächste Kernelversion einreichen. Zukünftige Linux-Versionen werden in Zukunft nur noch zweistellig sein, die dritte Stelle ist den Entwicklern der Stable-Kernelreihe vorbehalten, die früher die 4. Stelle zugewiesen bekamen.

Der Quellcode der neuen Kernel-Version kann von Kernel.org, oder einem der zahlreichen Spiegelserver heruntergeladen werden.

20. Juli 2011

vmware-install.pl: Komandozeilenoptionen

Inhalt
Beim Installieren der VMware-Tools unter Linux stellt das Script vmware-install.pl eine Menge Fragen.

Dies ist insbesondere lästig, wenn die Tools – z.B. nach einem Kernel-Update – erneut installiert werden müssen.

Auch für die automatische Bereitstellung von Maschinen ist die Fragerei hinderlich.

Mit den richtigen Kommandozeilenoptionen kann man die Installation automatisieren.

Entpacken der VMware-Tools

Im VMware-Player oder der VMware Console muss der Menüpunkt “Virtual Machine / (Re-)Install VMware Tools” ausgewählt werden.
Hiermit ‘schiebt’ VMware dann eine (virtuelle) CD in das Laufwerk.

Diese CD wird dann vom Gast-Betriebssystem (meistens) automatisch gemountet.

# optional (mounten der CD)
mount | grep VMware\ Tools ||
    ( mkdir /media/"VMware Tools" &&
      mount /dev/cdrom /media/"VMware Tools" )

# Entpacken der Tools
cd /tmp
tar xzf /media/VMware\ Tools/VMwareTools-*.tar.gz

Für eine automatische Installation legt man sich das .tar.gz Archiv an eine geeignete Stelle und überträgt es mit wget, scp, mount oder auf anderen Wegen (z.B. BladeLogic RSCD-Agent).

Vorsicht: Das Installationsscript umountet die CD am Ende der Installation

Found VMware Tools CDROM mounted at /media/VMware Tools. Ejecting device
/dev/sr0 ...

Voraussetzungen

Anders als bei einer rpm-basierten Installation muss der Administrator sich selbst um die erforderlichen Voraussetzungen kümmern. Da bei der Installation der VMware Tools im zweiten Schritt die erforderlichen Kernelmodule kompiliert werden, müssen einige Pakete auf dem System installiert sein.

Ubuntu

Für Ubuntu habe ich bereits früher eine Anleitung geschrieben.

sudo apt-get install  build-essential linux-headers-`uname -r`

OpenSuSE 11.4

zypper in make gcc kernel-devel
## (muss zur laufenden Kernel Version passen!)

vmware-install.pl

Für die meisten Distributionen, stellt VMware kein fertiges Paket (z.B. .rpm), sondern ein .tar.gz Archiv  zur Verfügung.
Hier erfolgt die Installation über das Perl-Script vmware-install.pl.

Beim Aufruf ohne Optionen stellt das Script viele Fragen auf der Kommandozeile. In den meisten Fällen können die Standardwerte verwendet werden.

Usage

Mit -h kann man dem Programm eine (schlecht lesbare) Usage entlocken.

buddysuse:/tmp/vmware-tools-distrib # ./vmware-install.pl -h
VMware Tools 8.4.6 build-385536 for Linux installer
Usage: ./vmware-install.pl [[-][-]d[efault]]
default: Automatically answer questions with the proposed answer.
[[-][-]prefix=<path to install product: bin, lib, doc>   
Put the installation at <path> instead of the default location. 
This implies '--default'.
--clobber-kernel-modules=<module1,module2,...>   
Forcefully removes any VMware related modules installed by any
other installer and installs the modules provided by this installer. 
This is a comma seperated list of modules.

Defaulteinstellungen verwenden: -d

Mit dem Schalter -d werden alle Defaulteinstellungen übernommen. Dies entspricht dem Ablauf, wenn alle Fragen mit <RETURN> bzw. Y beantwortet werden.

Prefix ändern: -prefix=/usr/local

Wer den Installationspfad (Standard: /usr/bin, /usr/sbin, /usr/lib,…) ändern will, kann z.B. -prefix=/usr/local angeben.
Vorsicht: “This implies –default”, das Script stellt also keine Fragen mehr.

–clobber-kernel-modules

Bei einigen Distributionen (z.B. OpenSuSE) sind ggf. die open-vm-tools, open-vm-tools-gui und entsprechende Kernel-Module bereits installiert.
vmware-install.pl wird sich dann weigern, diese Module zu installieren, wenn nicht die Option –clobber-kernel-modules angegeben wird.

The module vmxnet3 has already been installed on this system by another
installer or package and will not be modified by this installer.  Use the flag
--clobber-kernel-modules=vmxnet3 to override.

The module pvscsi has already been installed on this system by another
installer or package and will not be modified by this installer.  Use the flag
--clobber-kernel-modules=pvscsi to override.

Zur Zeit installieren die VMware Tools diese Module:

--clobber-kernel-modules=vmhgfs,vmxnet,vmblock,vmci,vsock,vmxnet3,pvscsi

‘Geheime’ Optionen

Ein Blick in das Perl-Script verrät, dass es noch weitere – nicht dokumentierte – Optionen gibt.

         if (lc($arg) =~ /^(-)?(-)?d(efault)?$/) {
           $gOption{'default'} = 1;
         } elsif (lc($arg) =~ /^--clobber-kernel-modules=([\w,]+)$/) {
           $gOption{'clobberKernelModules'} = "$1";
         } elsif (lc($arg) =~ /^(-)?(-)?nested$/) {
           $gOption{'nested'} = 1;
         } elsif (lc($arg) =~ /^-?-?prefix=(.+)/) {
           $gOption{'prefix'} = $1;
         } elsif ($arg =~ /=yes/ || $arg =~ /=no/) {
           push(@setOption, $arg);
         } elsif (lc($arg) =~ /^(-)?(-)?(no-create-shortcuts)$/) {
           $gOption{'create_shortcuts'} = 0;
         } else {
           install_usage();
         }

Beispiel-Log

Als Beispiel hier ein komplettes Log (OpenSuSE 11.4)

Fazit

Bei einem automatisierten Aufruf sollte man sich unbedingt eine Logdatei anlegen lassen:

./vmware-install.pl -d 2>&1 | tee install.log

Sonst weiß man bei Problemen nicht, was geklappt hat und was nicht. Wenn alles gut ging, ist der Exitcode = 0, sonst (meistens) = 1.

VMware Tools: Silent Install unter Linux ist ein Beitrag von: kenntwas.de - Technische Tipps

Ubuntu Logo

Ab und zu kommt es vor, dass ich daily-PPA’s oder neue PPA’s ausprobiere um neuere Versionen von Programmen zu bekommen. Dementsprechend möchte ich auch ab und an wieder zurück zur alten Programmversion. Dies klappte bei mir mit Gwibber leider nicht reibungslos, es kam nach dem deinstallieren und entfernen des PPA’s immer der folgende Fehler:
 
 
 
 
 
 
 
 
 
 

matze@matze-pc:~$ sudo apt-get install gwibber
Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut
Statusinformationen werden eingelesen... Fertig
Einige Pakete konnten nicht installiert werden. Das kann bedeuten, dass
Sie eine unmögliche Situation angefordert haben oder, wenn Sie die
Unstable-Distribution verwenden, dass einige erforderliche Pakete noch
nicht erstellt wurden oder Incoming noch nicht verlassen haben.
Die folgenden Informationen helfen Ihnen vielleicht, die Situation zu lösen:
Die folgenden Pakete haben unerfüllte Abhängigkeiten:
gwibber : Hängt ab von: gwibber-service (= 3.0.0.1-0ubuntu3) aber 3.1.0~bzr997-0ubuntu1~daily1 soll installiert werden
E: Beschädigte Paketematze@matze-pc:~$

Im IRC-Chat #ubuntu-de auf freenode wurde mir der Tipp mit ppa-purge gegeben.

PPA-Purge ist ein kleines Kommandozeile-Tool welches auch in den Standard Ubuntu Quellen vorhanden ist, daher kann man es einfach mittels dem Befehl ausführe.

sudo apt-get install ppa-purge

installieren.

Um das PPA zu entfernen muss man es noch eingetragen haben und anschließend mit dem Befehl

sudo ppa-purge ppa:

Hinter das ppa: kommt der entsprechende Name des PPA’s. Mit meinem Beispiel von Gwibber würde der Befehl so aussehen:

sudo ppa-purge ppa:gwibber-daily/ppa

Damit wird das PPA aus der Quelle entfernt, die installierte Version des Programms deinstalliert und automatisch wieder die Version des Programms installiert die in den Standard Ubuntu Quellen, bzw. eben der entprechenden Distribution, enthalten ist. Vorrausgesetzt ihr habt keine Konfigurationen/Chache-Daten gelöscht, bleiben auch alle Anwendungsdaten vorhanden und ihr könnt da weiter machen wo ihr aufgehört habt.
Ich finde das ist ein sehr praktisches Tool und kann einem schnell und unkompliziert weiter helfen! Welche Tipps für kleine, handliche Helfer habt ihr?

flattr this!

Natürlich geht es hier nicht um das Entpacken von analogen Paketen, zum Beispiel an Weihnachten. Es geht stattdessen um das Entpacken von Archiven, die mit unterschiedlichen Komprimierungsalgorithmen verkleinert wurden.

Das Programm, das dies vornehmen kann heißt unp (unpack). Es kann mit tar, zip, rar und deb-Archiven umgehen.
Damit ist es nicht mehr nötig ein tar-Archiv über

1
tar -xvzf file.tar.gz
tar -xvzf file.tar.gz

oder

1
tar -xvjf file.tar.bz
tar -xvjf file.tar.bz

zu entpacken, sondern einfach über

1
unp file.tar.gz file.tar.bz
unp file.tar.gz file.tar.bz

Das Entpacken von mehreren Archiven über *.tar[.gz|.bz] ist kein Problem.

Archivformate

In meinem Fall habe ich mir mal alle Formate anzeigen lassen, die ich mit dem Programm aufrufen kann. Dazu benutzt man den Befehl

1
unp -s
unp -s

Ausgabe:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
Known archive formats and tools:
7z:           p7zip oder p7zip-full
ace:          unace
ar,deb:       binutils
arj:          arj
bz2:          bzip2
cab:          cabextract
chm:          libchm-bin oder archmage
cpio,afio:    cpio oder afio
dat:          tnef
dms:          xdms
exe:          maybe orange or unzip or unrar or unarj or lha
gz:           gzip
hqx:          macutils
lha,lzh:      lha
lzma:         xz-utils oder lzma
lzo:          lzop
lzx:          unlzx
mbox:         formail und mpack
pmd:          ppmd
rar:          rar oder unrar oder unrar-free
rpm:          rpm2cpio und cpio
sea,sea.bin:  macutils
shar:         sharutils
tar:          tar
tar.bz2,tbz2: tar mit bzip2
tar.lzip:     tar mit lzip
tar.lzop,tzo: tar mit lzop
tar.xz,txz:   tar mit xz-utils
tar.z:        tar mit compress
tgz,tar.gz:   tar mit gzip
uu:           sharutils
xz:           xz-utils
zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
zoo:          zoo
Known archive formats and tools:
7z:           p7zip oder p7zip-full
ace:          unace
ar,deb:       binutils
arj:          arj
bz2:          bzip2
cab:          cabextract
chm:          libchm-bin oder archmage
cpio,afio:    cpio oder afio
dat:          tnef
dms:          xdms
exe:          maybe orange or unzip or unrar or unarj or lha
gz:           gzip
hqx:          macutils
lha,lzh:      lha
lzma:         xz-utils oder lzma
lzo:          lzop
lzx:          unlzx
mbox:         formail und mpack
pmd:          ppmd
rar:          rar oder unrar oder unrar-free
rpm:          rpm2cpio und cpio
sea,sea.bin:  macutils
shar:         sharutils
tar:          tar
tar.bz2,tbz2: tar mit bzip2
tar.lzip:     tar mit lzip
tar.lzop,tzo: tar mit lzop
tar.xz,txz:   tar mit xz-utils
tar.z:        tar mit compress
tgz,tar.gz:   tar mit gzip
uu:           sharutils
xz:           xz-utils
zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
zoo:          zoo

Hieran erkennt man auch die externen Programm, die zum Entpacken benutzt werden. Manche Archivformate sind mir sogar neu!

Leider gibt es keine Funktion, mit der auch in Archiven enthaltene Archive entpackt werden, sodass man ein rekusives Entpacken hätte. Dies hatte ich ausprobiert.

Desweiteren gibt es noch einen intelligenten Modus (Parameter: -U), der ein Archiv, wenn es mehrere Dateien enthält in einen Unterordner entpackt. Dieser Unterordner heißt gleich dem Archivnamen ohne Dateiendung.

Es lassen sich auch Programmparameter an die eigentlichen Entpackprogramme wie tar übergeben, indem man

1
unp <datei.tar> -- -C /tmp/
unp <datei.tar> -- -C /tmp/

benutzt. Dabei sollte man allerdings darauf achten, dass man immer nur gleiche Archive angibt, sodass das dahinterstehende Entpackungsprogramm damit richtig umgehen kann. Nicht jedes Programm nutzt auch die gleichen Parameter, Geschweige denn die gleichen Reaktionen.

Fazit

Also im Großen und Ganzen ist das ein praktisches Tool, mit dem das Entpacken unterschiedlichster Pakete einfach vonstatten geht.
Schön finde ich den intelligenten Modus, denn mir ist es manchmal passiert, dass sich in einem Archiv Dateien befanden, die in keinem übergeordneten Ordner lagen. Natürlich schaute ich nicht vorher in das Paket hinein und alle Dateien waren in meine aktuellen Ordner entpackt. Mühselig ist das ganze, wenn man sich in einem Verzeichnis befindet, in dem viele Dateien liegen. Das Suchen der gerade entpackten Daten ist dann fast nicht mehr zu schaffen.

Ich habe mich noch nicht wirklich an das Programm gewöhnt – ich nutze immernoch das manuelle tar -xvf, ich hoffe, das ändert sich bald. ;-)

Weitere Informationen

Natürlich geht es hier nicht um das Entpacken von analogen Paketen, zum Beispiel an Weihnachten. Es geht stattdessen um das Entpacken von Archiven, die mit unterschiedlichen Komprimierungsalgorithmen verkleinert wurden.

Das Programm, das dies vornehmen kann heißt unp (unpack). Es kann mit tar, zip, rar und deb-Archiven umgehen.
Damit ist es nicht mehr nötig ein tar-Archiv über

1
tar -xvzf file.tar.gz
tar -xvzf file.tar.gz

oder

1
tar -xvjf file.tar.bz
tar -xvjf file.tar.bz

zu entpacken, sondern einfach über

1
unp file.tar.gz file.tar.bz
unp file.tar.gz file.tar.bz

Das Entpacken von mehreren Archiven über *.tar[.gz|.bz] ist kein Problem.

Archivformate

In meinem Fall habe ich mir mal alle Formate anzeigen lassen, die ich mit dem Programm aufrufen kann. Dazu benutzt man den Befehl

1
unp -s
unp -s

Ausgabe:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
Known archive formats and tools:
7z:           p7zip oder p7zip-full
ace:          unace
ar,deb:       binutils
arj:          arj
bz2:          bzip2
cab:          cabextract
chm:          libchm-bin oder archmage
cpio,afio:    cpio oder afio
dat:          tnef
dms:          xdms
exe:          maybe orange or unzip or unrar or unarj or lha
gz:           gzip
hqx:          macutils
lha,lzh:      lha
lzma:         xz-utils oder lzma
lzo:          lzop
lzx:          unlzx
mbox:         formail und mpack
pmd:          ppmd
rar:          rar oder unrar oder unrar-free
rpm:          rpm2cpio und cpio
sea,sea.bin:  macutils
shar:         sharutils
tar:          tar
tar.bz2,tbz2: tar mit bzip2
tar.lzip:     tar mit lzip
tar.lzop,tzo: tar mit lzop
tar.xz,txz:   tar mit xz-utils
tar.z:        tar mit compress
tgz,tar.gz:   tar mit gzip
uu:           sharutils
xz:           xz-utils
zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
zoo:          zoo
Known archive formats and tools:
7z:           p7zip oder p7zip-full
ace:          unace
ar,deb:       binutils
arj:          arj
bz2:          bzip2
cab:          cabextract
chm:          libchm-bin oder archmage
cpio,afio:    cpio oder afio
dat:          tnef
dms:          xdms
exe:          maybe orange or unzip or unrar or unarj or lha
gz:           gzip
hqx:          macutils
lha,lzh:      lha
lzma:         xz-utils oder lzma
lzo:          lzop
lzx:          unlzx
mbox:         formail und mpack
pmd:          ppmd
rar:          rar oder unrar oder unrar-free
rpm:          rpm2cpio und cpio
sea,sea.bin:  macutils
shar:         sharutils
tar:          tar
tar.bz2,tbz2: tar mit bzip2
tar.lzip:     tar mit lzip
tar.lzop,tzo: tar mit lzop
tar.xz,txz:   tar mit xz-utils
tar.z:        tar mit compress
tgz,tar.gz:   tar mit gzip
uu:           sharutils
xz:           xz-utils
zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
zoo:          zoo

Hieran erkennt man auch die externen Programm, die zum Entpacken benutzt werden. Manche Archivformate sind mir sogar neu!

Leider gibt es keine Funktion, mit der auch in Archiven enthaltene Archive entpackt werden, sodass man ein rekusives Entpacken hätte. Dies hatte ich ausprobiert.

Desweiteren gibt es noch einen intelligenten Modus (Parameter: -U), der ein Archiv, wenn es mehrere Dateien enthält in einen Unterordner entpackt. Dieser Unterordner heißt gleich dem Archivnamen ohne Dateiendung.

Es lassen sich auch Programmparameter an die eigentlichen Entpackprogramme wie tar übergeben, indem man

1
unp <datei.tar> -- -C /tmp/
unp <datei.tar> -- -C /tmp/

benutzt. Dabei sollte man allerdings darauf achten, dass man immer nur gleiche Archive angibt, sodass das dahinterstehende Entpackungsprogramm damit richtig umgehen kann. Nicht jedes Programm nutzt auch die gleichen Parameter, Geschweige denn die gleichen Reaktionen.

Fazit

Also im Großen und Ganzen ist das ein praktisches Tool, mit dem das Entpacken unterschiedlichster Pakete einfach vonstatten geht.
Schön finde ich den intelligenten Modus, denn mir ist es manchmal passiert, dass sich in einem Archiv Dateien befanden, die in keinem übergeordneten Ordner lagen. Natürlich schaute ich nicht vorher in das Paket hinein und alle Dateien waren in meine aktuellen Ordner entpackt. Mühselig ist das ganze, wenn man sich in einem Verzeichnis befindet, in dem viele Dateien liegen. Das Suchen der gerade entpackten Daten ist dann fast nicht mehr zu schaffen.

Ich habe mich noch nicht wirklich an das Programm gewöhnt – ich nutze immernoch das manuelle tar -xvf, ich hoffe, das ändert sich bald. ;-)

Weitere Informationen

Nach meinem teilweisen Umstieg von Ubuntu auf OpenSUSE, was hauptsächlich Unity geschuldet ist (einen ausführlichen Beitrag dazu werde ich evtl. noch nachreichen), hier nun einige Schritte, die nach einer frischen Installation sinnvoll, notwendig oder erstrebenswert sind.

Die Anleitung wird in weiteren Beiträgen fortgesetzt, ist jedoch schon jetzt recht ausführlich / umfangreich.

Über Anmerkungen / Ergänzungen im Kommentar-Bereich freue ich mich.

Zur Anleitung gelangt ihr nach dem Klick auf den Titel...
"OpenSUSE - erste Schritte, Tipps und Tricks" vollständig lesen

Gestern hat Oracle Version 4.1 der Virtualisierungssoftware Virtualbox veröffentlicht. Sie enthält zahlreiche neue Funktionen und Fehlerbehebungen, Details dazu gibt es im Changelog.

Unter anderem wurde die Oberfläche erweitert, neu ist z. B. der Wizard zum Erstellen virtueller Festplatten. Es ist nun möglich, das Image-Format der Festplatten festzulegen. Zur Auswahl stehen das Standardformat VDI, genutzt werden können aber auch das unter Vmware gebräuchliche VMDK oder das VDH-Format.

Ebenfalls kann man nun existierende Festplatten mit wenigen Mausklicks klonen. Die 64bit-Version kann bis zu 1 TerraByte RAM verwalten. Außerdem wurde die Unterstützung grafischer Effekte unter Windows (Aero) verbessert.

Virtualbox kann als Binärpaket oder als Quellcode für zahlreiche Distributionen (zudem auch für Windows, MacOsX und Solaris) heruntergeladen werden.

Für debian-basierte Distributionen (so auch Ubuntu) existiert ein PPA. Dafür muss man die entsprechende Zeile zur /etc/apt/sources.list hinzufügen, für Natty wäre das entsprechend

deb http://download.virtualbox.org/virtualbox/debian natty contrib

Die Installation erfolgt dann mit den folgenden Befehlen:

wget -q http://download.virtualbox.org/virtualbox/debian/oracle_vbox.asc -O- | sudo apt-key add -
sudo apt-get update
sudo apt-get install virtualbox-4.1

19. Juli 2011

    Das Elementary Projekt erfreut sich ja relativ großer Beliebtheit, und das meist installierte Programm wird wohl die Erweiterung für den Dateimanager Nautilus sein.
    Mit dem erscheinen von Gnome3 und somit auch Version 3 von Nautilus wird auch Nautilus Elementary nicht mehr weitergeführt.
    Das ist auch eigentlich nicht mehr nötig, da zum einem die Oberfläche von Nautilus stark vereinfacht wurde, und jetzt schon mehr dem Nautilus Elementary in Version 2.x ähnelt und das Elementary Projekt einen eigenen Dateimanager geschrieben hat.

    Installation

    Marlin in der Miniaturansicht

    Marlin in der Miniaturansicht

    Marlin heißt er und er ist in einer frühen Version schon verfügbar.
    Für Ubuntu 11.04 und 11.10 sind schon PPAs verfügbar. Um ihn zu installieren, einfach die folgenden Schritte ausführen:

    sudo add-apt-repository ppa:elementaryart/elementary-dev
    sudo apt-get update
    sudo apt-get install marlin
    

    Nun kann Marlin über das Menü gestartet werden. Unter 11.04 passt das Design noch nicht wirklich, was daran liegt, dass Natty noch auf GTK2 basiert, während Marlin schon in GTK3 geschrieben ist.
    Im neuen Oneiric Ozelot passt er sich schon dem Rest des Desktops an.

    Benutzung

    Das erste, was einem auffällt, ist dass er ziemlich schnell startet, ist ja schließlich ein junges Programm, was noch nicht so aufgebläht sein sollte.
    Ansonsten sieht Marlin aus, wie fast jeder Dateimanager. Oben gibt es eine Leiste mit Navigationselementen sowie einer Adressleiste.
    Links ist eine Spalte mit Lesezeichen zu den Standardverzeichnissen, den physikalischen sowie den Netzwerklaufwerken.

    Marlin in der Spaltenansicht

    Marlin in der Spaltenansicht

    Rechts ist eine Spalte mit Informationen über den gerade gewählten Ordner/die gewählte Datei.
    Also alles schonmal dagewesen.
    Aber wie immer sind es die Kleinigkeiten die den Unterschied machen. So kann man in die Adressleiste auch sein Ziel eintippen und muss nicht über die Breadcrumbs navigieren.

    Die Benutzeroberfläche ist auch sehr simpel gehalten und kann angepasst werden.
    Am rechten Rand der Leiste gibt es drei Buttons, die die Ansichten ändern. Die ersten zwei sind ganz normal Miniatur und Listenansicht. Die Dritte Ansicht ist eine Spaltenansicht, bei der für jede neue Ebene eine Spalte aufgemacht wird, so dass man die ganze Ordnerstruktur überblicken kann.
    Natürlich kann Marlin auch Tabs.

    Fazit

    Marlin läuft schon sehr stabil und kann also durchaus schon eingesetzt werden. Da auch, wie bereits erwähnt, Nautilus aufgeräumt wurde hat man im neuen Ubuntu die Wahl zwischen zwei guten GTK-Dateimanagern.
    Unter Ubuntu ist Nautilus wohl noch auf längere Zeit als Standard gesetzt, aber vielleicht kann sich das ja auch mal ändern. Ansonsten ist das Nachinstalliern von Marlin auch nicht sonderlich schwer.

    Normalerweise kann Conky einen farbigen Hintergrund, echte Transparenz oder Pseudotransparenz nutzen, nicht gesetzte Farbe und Pseudotransparenz zugleich.

    Wie man auf dem Bild sehen kann: Es geht doch beides. Dafür bindet man dieses lua-skript ein (via):

    --[[
    Background by londonali1010 (2009)
    This script draws a background to the Conky window. It covers the whole of the Conky window, but you can specify rounded corners, if you wish.
    To call this script in Conky, use (assuming you have saved this script to ~/scripts/):
        lua_load ~/scripts/draw_bg.lua
        lua_draw_hook_pre draw_bg
    Changelog:
    + v1.0 -- Original release (07.10.2009)
    ]]
    -- Change these settings to affect your background.
    -- "corner_r" is the radius, in pixels, of the rounded corners. If you don't want rounded corners, use 0.
    corner_r=10
    -- Set the colour and transparency (alpha) of your background.
    bg_colour=0x000000
    bg_alpha=0.4
    require 'cairo'
    function rgb_to_r_g_b(colour,alpha)
        return ((colour / 0x10000) % 0x100) / 255., ((colour / 0x100) % 0x100) / 255., (colour % 0x100) / 255., alpha
    end
    function conky_draw_bg()
        if conky_window==nil then return end
        local w=conky_window.width
        local h=conky_window.height
        local cs=cairo_xlib_surface_create(conky_window.display, conky_window.drawable, conky_window.visual, w, h)
        cr=cairo_create(cs)
        
        cairo_move_to(cr,corner_r,0)
        cairo_line_to(cr,w-corner_r,0)
        cairo_curve_to(cr,w,0,w,0,w,corner_r)
        cairo_line_to(cr,w,h-corner_r)
        cairo_curve_to(cr,w,h,w,h,w-corner_r,h)
        cairo_line_to(cr,corner_r,h)
        cairo_curve_to(cr,0,h,0,h,0,h-corner_r)
        cairo_line_to(cr,0,corner_r)
        cairo_curve_to(cr,0,0,0,0,corner_r,0)
        cairo_close_path(cr)
        
        cairo_set_source_rgba(cr,rgb_to_r_g_b(bg_colour,bg_alpha))
        cairo_fill(cr)
    end

    Irgendwo gespeichert, z.B. in ~/scripts/conky_draw.lua,wird es dann in der ~/.conkyrc aufgerufen:

    lua_load ~/scripts/conky-draw.lua
    lua_draw_hook_pre draw_bg

    Wer eigene Anwendungen schreibt der kennt das sicherlich: Die Anwendung ist fertig und es fehlen nur hier und da ein paar Icons für die Menüs und Toolbars. Die Icons sollten dabei natürlich alle zueinander passen, ein breites Spektrum abbilden und am besten unter einer freien Lizenz stehen.

    Diese Lücke füllt das Tango Desktop Project bei welchem es über 200 Icons für diese Zwecke gibt. Alle Icons stehen dabei unter Public Domain (früher CC-SA-BY), können also beliebig verwendet werden. Zu finden sind die Icons dabei unter http://tango.freedesktop.org/Tango_Desktop_Project, wo man neben den Grafiken (im PNG und SVG Format) auch die Styleguides findet um eigene Tango Icons zu entwerfen.

    Weitere Informationen gibt es unter:
    http://de.wikipedia.org/wiki/Tango_Desktop_Project

    18. Juli 2011

    Beim Bearbeiten der Bilder mit dem ExifTool (5 Digicams, unterschiedliche Zeiteinstellungen – Artikel) habe ich teilweise folgende Fehlermeldungen erhalten.

    #
    exiftool -AllDates+=10:31:53 Bild123.JPG
    Error: [minor] MakerNotes offsets may be incorrect (fix or ignore?) - Bild123.JPG
    #
    exiftool -AllDates+=2136:0:0 Bild456.JPG
    Warning: [minor] Possibly incorrect maker notes offsets (fix by -274?) - Bild456.JPG
    Error: [minor] Bad MakerNotes directory - Bild456.JPG

    Um diese Fehlermeldungen zu unterdrücken bzw. zu ignorieren, muss man den Befehlen zusätzlich die Option -m mitgeben.

    Using -m will downgrade the minor error to a warning, allowing the file to be written, but some Makernote information may be lost when ignoring certain types of errors like this.

    #
    exiftool -m -AllDates+=10:31:53 Bild123.JPG
    Warning: MakerNotes offsets may be incorrect (ignored) - Bild123.JPG
    #
    exiftool -m -AllDates+=2136:0:0 Bild456.JPG
    Warning: Deleted bad MakerNotes directory - Bild456.JPG

    Links:
    ubuntuusers.de - ExifTool
    ExifTool – Aufnahmedatum mehrerer Bilder von unterschiedlichen Digicams korrigieren


    © _nico für loggn.de - Tutorials und Erfahrungen, 2011. | Permalink | 6 comments
    _nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

    Die Medienverwaltung GCstar hat nach langer Zeit mal wieder ein kleines Update bekommen. In der neuen Version 1.6.2 werden einige Probleme mit Website-Plugins behoben und einige Fehler bereinigt. Ein komplettes Changelog gibt es hier. Leider ist GCstar 1.6.2 noch nicht im Stable-PPA angekommen, aber vielleicht kommt das ja noch. Im Daily-PPA gibt es eine Version 1.6.2, die habe ich allerdings noch nicht ausprobiert.

    Eine weitere “Neuerung” ab Version 1.6.2 ist, dass es erst einmal keine Windows-Builds mehr geben wird. Hier wird nach jemanden gesucht, der das künftig betreuen möchte.

    Möchte man die Version aus den Ubuntu-Paketquellen weiter verwenden kann man mit dem Befehl sudo gcstar -u versuchen die Plugins zu aktualisieren. Das hat bei mir bisher immer recht gut funktioniert.

    Die seit Ubuntu 11.04 Natty standartmäßig aktivierte Oberfläche “Unity” benötigt zwingend eine aktivierte Hardware-Beschleunigung. Um zu testen, ob der eigene Rechner Unity-fähig ist, reicht es, das Programm

    /usr/lib/nux/unity_support_test -p

    auszuführen. Dazu werden keine Root-Rechte benötigt. Das Programm testet die Grafikkomponenten des Systems und erstellt einen kurzen Bericht, der bei aktiviertem Unity z. B. so aussieht:

    linus@dell-laptop:~$ /usr/lib/nux/unity_support_test -p
    OpenGL vendor string:   ATI Technologies Inc.
    OpenGL renderer string: ATI Mobility Radeon HD 3400 Series
    OpenGL version string:  3.3.10665 Compatibility Profile Context
    
    Not software rendered:    yes
    Not blacklisted:          yes
    GLX fbconfig:             yes
    GLX texture from pixmap:  yes
    GL npot or rect textures: yes
    GL vertex program:        yes
    GL fragment program:      yes
    GL vertex buffer object:  yes
    GL framebuffer object:    yes
    GL version is 1.4+:       yes
    
    Unity supported:          yes

    Sobald eines der Kriterien auf “no” steht, kann man Unity3D nicht nutzen. Der Test eignet sich besonders gut dafür, über eine Live-CD vor einer möglichen Installation durchgeführt zu werden.

    Hinweis: Es gibt auch eine Unity-Version ohne 3D-Effekte, die aber dennoch die typische linke Seitenleiste besitzt und sich bis auf die deaktivierten visuellen Effekte nicht von der 3D-Version unterscheidet.

    17. Juli 2011

    Apache: Serversignatur abschalten

    Inhalt
    In der Standardkonfiguration meldet ein Apache-Webserver im HTTP-Response header seine Version.

    Auf produktiven Servern sollte man dies besser abschalten, weil die Standardkonfiguration nicht nur verrät, welche Apacheversion auf dem Server läuft, sondern auch ausführliche Informationen über die geladenen Module preisgibt.

    Beispiel

    > wget --save-headers -O- -q http://localhost/ |
         sed -n '1,/^[\r]*$/p'
    HTTP/1.1 200 OK
    Date: Sun, 17 Jul 2011 13:09:32 GMT
    Server: Apache/2.2.17 (Ubuntu) mod_fcgid/2.3.6 PHP/5.3.5-1ubuntu7.2 with Suhosin-Patch proxy_html/3.0.1 mod_python/3.3.1 Python/2.7.1+
    Last-Modified: Sun, 17 Oct 2010 22:07:52 GMT
    ETag: "a3b46-b1-492d74a861801"
    Accept-Ranges: bytes
    Content-Length: 177
    Vary: Accept-Encoding
    Keep-Alive: timeout=15, max=100
    Connection: Keep-Alive
    Content-Type: text/html

    Apache Konfiguration

    In der Apache-Konfiguration gibt es zwei Schlüsselworte, die das Aussehen der Serversignatur beeinflussen.

    • ServerTokens
    • ServerSignature

    Die Einstellungen stehen entweder in der httpd.conf, apache2.conf oder bei Ubuntu in der Datei

    /etc/apache2/conf.d/security

    ServerTokens

    Der Parameter ServerTokens ist für den HTTP-Response-Header verantwortlich (Server: …).
    Bei produktiven Servern sollte man hier Prod einstellen.

     

    #
    # ServerTokens
    # This directive configures what you return as the Server HTTP response
    # Header. The default is 'Full' which sends information about the OS-Type
    # and compiled in modules.
    # Set to one of:  Full | OS | Minimal | Minor | Major | Prod
    # where Full conveys the most information, and Prod the least.
    #
    #ServerTokens Minimal
    #ServerTokens OS
    ServerTokens Prod
    #ServerTokens Full

    ServerSignature

    Ein Apache Server verrät seine Version auch auf generierten Seiten.

    • Fehlerseiten (z.B. 404-Fehler)
    • generierten Verzeichnis Listings
    • mod_status und mod_info Seiten

    Diese Signatur kann (und sollte) ausgeschaltet werden. Wenn hier der Wert EMail verwendet wird, dann wird die konfigurierte email-Adresse ausgegeben.

    #
    # Optionally add a line containing the server version and virtual host
    # name to server-generated pages (internal error documents, FTP directory
    # listings, mod_status and mod_info output etc., but not CGI generated
    # documents or custom error documents).
    # Set to "EMail" to also include a mailto: link to the ServerAdmin.
    # Set to one of:  On | Off | EMail
    #
    ServerSignature Off
    #ServerSignature On

    Fehlermeldung mit ServerSignature=on

    Hier noch ein Beispiel für eine generierte Fehlerseite mit ServerSignature=on.

    Not Found
    
    The requested URL /icons/hh was not found on this server.
    Apache/2.2.17 (Ubuntu) mod_fcgid/2.3.6 PHP/5.3.5-1ubuntu7.2 with Suhosin-Patch proxy_html/3.0.1 mod_python/3.3.1 Python/2.7.1+ Server at localhost Port 80

     

    TraceEnable

    Das Flag TraceEnable sollte man auf produktiven Servern auch unbedingt ausschalten (off).

    Neustart erforderlich

    Nach Änderung der Apache-Konfiguration ist ein Neustart erforderlich.

    sudo /etc/init.d/apache2 restart

    Apache: Serversignatur abschalten ist ein Beitrag von: kenntwas.de - Technische Tipps

    Inhalt
    In der Standardkonfiguration gibt ein JBoss/Tomcat im HTTP-Header Informationen (X-Powered-By) über die eingesetzte Softwareversion preis.
    In produktiven Umgebungen sollte / kann man diese Informationen abschalten, um potentiellen Angreifern das Leben etwas schwerer zu machen.

    Abfrage des HTTP-Headers

    Der HTTP-Header kann z.B. mit wget abgefragt werden. Mit der Option –save-headers wird der Header mit abgespeichert. Nach einer Leerzeile ist der Header beendet.

    wget --save-headers -O- -q http://localhost:8080 |
       sed -n '1,/^[\r]*$/p'

    Das sed-Kommando gibt alle Zeilen bis zur ersten Leerzeile aus.
    Eine andere Möglichkeit ist curl –verbose http:/…..

    Beispiel einer Serversignatur

    > wget --save-headers -O- -q http://localhost:8080 | sed -n '1,/^[\r]*$/p'
    HTTP/1.1 200 OK
    Server: Apache-Coyote/1.1
    X-Powered-By: Servlet 2.4; JBoss-4.2.2.GA (build: SVNTag=JBoss_4_2_2_GA date=200710221139)/Tomcat-5.5
    ETag: W/"102-1103294408000"
    Last-Modified: Fri, 17 Dec 2004 14:40:08 GMT
    Content-Type: text/html
    Content-Length: 102
    Date: Sun, 17 Jul 2011 10:08:13 GMT
    Connection: keep-alive

    X-Powered-By deaktivieren

    Aus dem X-Powered-By Header lässt sich die genaue Version des Servers ermitteln. Angreifer, die diese Informationen kennen, sind schon einen Schritt weiter und können bekannte Schwachstellen dieser Version ausnutzen. Der Header lässt sich deaktivieren. Der Tip stammt von blog.techstack.com.

    JBoss 4.2.x

    In JBoss 4.2.x kann der X-Powered-By-Header in der Datei

    ${jboss.home}/
      server/default/deploy/jboss-web.deployer/conf/web.xml

    deaktiviert (auskommentiert) werden (etwa ab Zeile 25).

    <!-- ================== Common filter Configuration ==================== -->
    <filter>
        <filter-name>CommonHeadersFilter</filter-name>
        <filter-class>org.jboss.web.tomcat.filters.ReplyHeaderFilter</filter-class>
    <!--
        <init-param>
             <param-name>X-Powered-By</param-name>
            <param-value>Servlet 2.4; JBoss-4.2.2.GA (build: SVNTag=JBoss_4_2_2_GA date=200710221139)/Tomcat-5.5</param-value>
          </init-param>
    -->
       </filter>

    JBoss 5.0

    In JBoss 5.0 ist das Verfahren ähnlich, nur liegt die Datei web.xml an einer anderen Stelle:

    ${jboss.home}/
      server/${server.instance.name}/deployers/jbossweb.deployer/web.xml

    JBoss 6.0

    Ab JBoss 6.0 sind keine Änderungen an der web.xml mehr erforderlich.
    Hier muss die Datei catalina.properties angepasst werden.

    ${jboss.home}/
      server/${server.instance.name}/deploy/jbossweb.sar/catalina.properties

    Die Property X_POWERED_BY muss in dieser Datei auf false gesetzt werden.

    Tomcat

    Bei einer reinen Tomcat Installation (also ohne JBoss) wird der X-Powered-By Header in der Datei

    ${tomcathome}/conf/web.xml

    konfiguriert.

    Im Standard ist der Header bereits deaktiviert. (Siehe auch Tomcat 6 Basic Configuration).

      <!--   xpoweredBy          Determines whether X-Powered-By response       -->
      <!--                       header is added by generated servlet  [false]  -->
      <!--                                                                      -->
      <!-- If you wish to use Jikes to compile JSP pages:                       -->
      <!--   Please see the "Using Jikes" section of the Jasper-HowTo           -->
      <!--   page in the Tomcat documentation.                                  -->
    
        <servlet>
            <servlet-name>jsp</servlet-name>
            <servlet-class>org.apache.jasper.servlet.JspServlet</servlet-class>
            <init-param>
                <param-name>fork</param-name>
                <param-value>false</param-value>
            </init-param>
            <init-param>
                <param-name>xpoweredBy</param-name>
                <param-value>false</param-value>
            </init-param>
            <load-on-startup>3</load-on-startup>
        </servlet>

    Neustart erforderlich

    Nach den beschriebenen Änderungen ist ein Serverneustart erforderlich.

    Server – Signatur ausschalten

    Die Serversignatur (tomcat/5.0.25, coyote/1.1) kann ebenfalls abgeschaltet werden.

    JBoss

    Um die Serversignatur beim JBoss auszuschalten oder zu modifizieren, muss beim Connector in der Datei

    ${jbosshome}/
       server/default/deploy/jboss-web.deployer/server.xml

    eine zusätzliche Property server gesetzt werden.

        <Connector port="8080" address="127.0.0.1"
             maxThreads="250" maxHttpHeaderSize="8192"
             emptySessionPath="true" protocol="HTTP/1.1"
             enableLookups="false" redirectPort="8443" acceptCount="100"
             connectionTimeout="20000" disableUploadTimeout="true"
             server="this is my secret" />

    Die Property server ist normalerweise nicht gesetzt.

    > wget --save-headers -O- -q http://localhost:8080 | sed -n '1,/^[\r]*$/p'
    HTTP/1.1 200 OK
    ETag: W/"102-1103294408000"
    Last-Modified: Fri, 17 Dec 2004 14:40:08 GMT
    Content-Type: text/html
    Content-Length: 102
    Date: Sun, 17 Jul 2011 11:41:30 GMT
    Connection: keep-alive
    Server: this is my secret
    Server: Apache-Coyote/1.1

    (X-Powered-By ebenfalls deaktiviert).
    Siehe auch: Tomcat/JBoss: Suppressing Server Identity.

    Fazit

    Wirkliche Sicherheit bietet das Abschalten (Verschleiern) der Signaturen nicht. Wenn möglich sollte die Serversoftware immer auf dem letzten Stand der Technik (Patches) sein.

    JBoss/Tomcat: Serversignaturen abschalten (X-Powered-By) ist ein Beitrag von: kenntwas.de - Technische Tipps

    Eine Erweiterung des Wikiartikels und Sammlung meiner Anpassungen

    In Zeiten von Gnome 3, Unity und generell variierenden Vorstellungen davon, wie der Desktop aussehen soll, kann man entweder sich mit den vorgegeben Lösungen begnügen (und einige Konzepte sind ja auch wirklich gut) oder sich einen eigenen Desktop zusammenstellen. Das gehört zu den Freiheiten, die Linux im Gegensatz zu Windows bietet. Es ist aber nicht immer einfach, den Überblick über alle möglichen Komponenten zu bewahren. Das fängt mit der Frage an: Was braucht man überhaupt?

    Fenstermanagment ist der erste Punkt, den man als Anfänger wahrscheinlich übersieht. Fenster mit Titelleiste und Kontrollen anzeigen, bewegen, minimieren und schließen: All das übernimmt der Fenstermanager. Zusätzlich stellt er normalerweise virtuelle Desktops bereit.

    Man braucht eine Übersicht der laufenden Programme, der offenen Fenster, eine Traybar für Trayicons (z.B. für Pidgin), aber auch so profane Dinge wie eine Uhr, ein Hintergrundbild, und meiner Meinung nach gehört auf jeden Desktop eine Last- und Netzwerkanzeige (um mitzubekommen, dass das eben gestartete Programm gerade lädt/der Download im Hintergrund noch läuft). Und jeder wird irgenwie Dateien verwalten wollen.

    Ein Ziel kann sein, all dies mit eigenständigen Programmen zu erreichen. Und diese dann jeweils passend aussehen zu lassen.

    Fenstermanager

    Am besten geeignet ist wohl eine Fenstermanager, der relativ wenige eigene Elemente mitbringt. Eine Möglichkeit: IceWM mit ShowTaskBar=0 in der ~/preferences. Designs für die Fensterleisten und Rahmen finden sich bei box-look. Oder direkt Compiz nehmen. Praktisch wäre es, wenn einem bewusst ist, wie der Fenstermanager beim Start Programme mitstarten kann.

    Compositor

    Inzwischen haben viele Fenstermanager einen Compositor eingebaut, sodass sie über die Grafikkarte Transparenz und andere Effekte zeichnen können. Das wird von vielen Docks und Desklets benutzt, die Animationen können aber auch beim Schließen/Starten von Fenstern, durch Schatten oder beim Wechsel der Arbeitsflächen angenehm wirken. Nachrüsten kann man ihn auch: Der xcompmgr funktioniert nicht schlecht, etwas aufwändiger (mit direkt mehr Animationen, Tayicon und grafischer Konfiguration) ist der Cairo Composite Manager, der allerdings nicht in den Quellen liegt.

    Programmliste

    Ein Dock passt hier ganz gut, man kann aber natürlich auch ein vollständiges Panel wie tilt2 nehmen. Docks gibt es in allen Varianten, von kleinen wie Docky und SimDock, die wirklich nur Programme anzeigen, zu Cairo-Dock und AWN, die aufwändigere Effekte beherrschen und ihre eigenen Widgets beinhalten (und so Systray/Uhr/Arbeitsflächenwechsler ersetzen können)

    Tray

    Wer ein kleines Dock gewählt hat, hat für den Tray wenig Alternativen. Ich kenn sogar nur eine: stalonetray. Es macht genau, was es soll: Icons aufnehmen, nicht mehr. Über die ~/.stalonetrayrc kann man es anpassen, es z.B. transparent und leicht grau machen:

    transparent 1
    tint_level 100
    tint_color black

    Starter

    Was aber nun mit Programmen, die noch nicht im Dock sind? Jedes mal ein Terminal aufmachen ist ätzend. Von Desktopumgebungen kennt man Alt + F2 als Shortcut, um Programme über eine Eingabezeile zu starten. Eigenständge Alternative dazu ist grun, das sehr gut Befehle vervollständigt. Das kann icewm per ~/.icewm/keys auf eine beliebige Tastenkombination legen, z.B. Strg + Space:

    key "Super+Space"       grun

    Uhr/Datum

    Viele Alternativen hier. Ich schaute mir zuerst Cairo-Clock an, kam darüber zu Desklets und wählte schließlich conky. Um damit nur Datum und Uhrzeit anzuzeigen, lässt man im TEXT-Abschnitt der ~/.conkyrc nur diesen Code stehen:

    ${time %T, %d.%m.%Y}

    Dazu sollte man update_interval 1.0 in den oberen Teil der Konfiguration setzen.

    Lastanzeige

    Die Auslastung der CPU kann man wohl mit jedem Deskletprogramm anzeigen lassen. Ich habe das mit Conky und kombiniert mit einer Netzwerkanzeige schonmal beschrieben.

    Benachrichtungen

    Nicht unbedingt nur fürs Aussehen ist das Nachrüsten von Notify-OSD. Es sieht auch gut aus, wenn die Benachrichtigungen am gleichen Fleck, schwarz und transparent sind, aber hinter der Unaufdringlichkeit der Benachrichtigungen steckt auch ein Konzept.

    Dateimanagement

    Auch so etwas, was bei einer Desktopumgebung direkt mitgeliefert wird, was man schnell mal vergisst. Zum glück ist es kein Problem, Nautilus oder einen anderen Dateimanager einfach mitstarten zu lassen - oder aber ein transparentes Terminal auf einer Arbeitsfläche offenzulassen.

    Desktophintergrund

    Hier gibt es wirklich viele Alternativen, wenn der Dateimanager das nicht sowieso miterledigt.

    GTK-Design

    Das Aussehen sehr vieler Programme wird über das gewählte GTK-Design bestimmt. Hier ein passendes auszuwählen beeinflusst also viel. Außerdem ist auch dies ein Punkt, bei dem eine Desktopumgebung meist ein passendes wählt, während ohne diese Anpassung der Desktop erstmal grau wirkt. Dabei gibt es durchaus schöne Sammlungen.

    Beim Schreiben bin ich fast ein bisschen erschrocken, wie viel insgesamt zu berücksichtigen ist. Und dabei gehört zum eigenen Desktop noch mehr, nämlich die normalen Programme (Musikplayer, Browser usw.)

    16. Juli 2011

    Nachdem ich jetzt die ersten Erfahrungen mit meinem neuen “Spielzeug”, einem Synology DS211j, gesammelt habe, möchte ich eben diese hier zum Besten geben. Ich denke, ich werde mehrere Artikel dazu schreiben – es ist einfach zu viel, um alles in einen Post zu verpacken.

    Die Artikel drehen sich zwar hauptsächlich um das NAS, aber es wird darauf auch auf die Shell-Ebene gehen. In sofern betrachte ich also das ganze nicht wirklich als Off-Topic – wird das gute Stück doch mit BusyBox, einem Embedded Linux, betrieben. Zudem wird es auch immer mehr um die Verbindung zwischen meiner Ubuntu-Büchse und dem NAS gehen. Dazu werde ich aber wohl erst noch eine Weile “forschen”.

    In diesem Artikel möchte ich erst einmal über meine ersten Eindrücke und Erfahrungen berichten. Zudem werde ich etwas auf die Konfiguration bzw. die Einstellungen auf dem Gerät eingehen…

    Für alle nicht so versierten möchte ich vorweg kurz erklären, was ein NAS ist. Ein NAS (Network Attached Storage) kann man praktisch als externe Festplatte sehen, die im Heim-Netzwerk hängt. Somit ist der Speicher aus dem gesamten Heim-Netzwerk erreichbar. Tatsächlich sind diese Geräte aber mehr als nur eine Festplatte – eher ein kleiner Rechner mit eigenem Betriebssystem und meist vielen praktischen Funktionen, z.B. Datensicherungs-Möglichkeiten, Medien-Server o.ä. Zudem unterstützen NAS normalerweise RAID-Systeme – Strategien, um mit mehreren Festplatten für höhere Datensicherung (z.B. durch Spiegelung der Daten) oder für höhere Schreib-Performance zu sorgen.

    Die Hardware

    Wie gesagt habe ich mich für die Disk Station DS211j von Synology entschieden. Unter anderem war eine Anforderung an das NAS, dass der Squeezbox-Server von Logitech (auch als Slimserver bekannt) darauf installiert werden kann – dazu aber später mehr. Ansonsten war mir ein möglichst geringer Strombedarf wichtig, natürlich bei möglichst geringem Anschaffungspreis. Beide Kriterien wogen jeweils schwerer als die Performance.

    Außerdem wollte ich ein NAS mit zwei Bays, da ich ein RAID 1 aufsetzen wollte. Dazu habe ich mir die größte Samsung-Platte aus der Kompatibilitäts-Liste ausgesucht (2TB) und mir zwei Exemplare davon kommen lassen.

    Ich möchte an dieser Stelle noch einmal darauf hinweisen, dass ich keine Werbung für die Geräte und Hersteller machen möchte. Trotzdem muss ich natürlich die Hersteller und Modellnamen nennen, damit euch klar ist, von was ich hier spreche.

    Die Installation

    Die Platten waren natürlich schnell eingebaut: Gehäuse aufschieben, Platten reinschieben und festschrauben, Gehäuse zuschieben und zuschrauben. Fertig.

    Die erste Einrichtung der Geräts läuft über den sogenannten SynologyAssistant, der auch für Linux angeboten wird. Die Installation des Tools ist eigentlich recht einfach – im Download-Paket findet sich eine Datei namens HowToInstallAssistant.txt, die die Vorgehensweise erklärt. Anzumerken ist aber, dass bei mir das Tool zunächst immer mit einem Fehler (ich meine, einem SegmentationFault) abgebrochen ist. Kurze Zeit später habe ich aber bemerkt, dass es aber mit sudo problemlos gestartet und benutzt werden kann.

    Natürlich habe ich den Assistant und auch das Betriebssystem (damit meine ich das DSM, Synology nennt das wohl Firmware?!) aktuell von der Download-Seite des Herstellers heruntergeladen. Besonders bei dem Betriebssystem ist das sinnvoll, zumal es bereits in der Version 3.1 vorliegt, auf der CD aber noch die Version 3.0 mitgeliefert wird.

    Als nächstes stand dann die Erstellung des Volumes als RAID 1 an. Hierzu ein How-To zu schreiben wäre aber wohl übertrieben. Wie die komplette Inbetriebnahme war auch dieser Schritt wirklich einfach und selbsterklärend.

    Die Synchronisation lief dann allerdings erst einmal ein paar Stunden. Wie lange genau, kann ich nicht sagen, weil ich irgendwann mal ins Bett gegangen bin und das NAS hab NAS sein lassen… ;)

    Nachdem das Volume (Volume 1 genannt) dann zur Verfügung stand, habe ich zunächst einen gemeinsamen Ordner angelegt. Und zwar einen, der in Zukunft meine Musik (und vielleicht auch andere Medien) aufnehmen sollte. Ich habe ihn daher Medien getauft.

    Interessante Einstellungen

    Win/Mac/NFS, Reiter NFS

    • Hier habe ich NFS aktiviert, um per NFS auf die Daten zugreifen zu können. Da ich weder mit Windows noch mit Mac OS arbeite, interessieren mit persönlich die anderen Einstellungen hier nicht.

    DDNS

    • Die DDNS-Einstellungen benutze ich nicht. Ich möchte an dieser Stelle aber darauf hinweisen, dass ich mir das hier spare, weil sich mein Router (eine Fritz!Box) bereits um die Dynamic-DNS-Verbindung kümmert.

    Terminal

    • Hier habe ich SSH-Dienst aktivieren angehakt, um auch per Shell-Login auf dem Gerät arbeiten zu können.

    DSM-Einstellungen, Reiter HTTPS-Dienst

    • Die Portnummern habe ich auf 5000 (HTTP) und 5001 (HTTPS) gelassen.
    • Die beiden Haken HTTP-Verbindung aktivieren und HTTP-Verbindungen automatisch zu HTTPS umleiten habe ich natürlich gesetzt. Ich wollte ja Zugriff aus dem Internet auf mein NAS zulassen.

    Benachrichtigung

    • Hier habe ich die SMTP-Verbindungsdaten von meinem Googlemail-Account eingetragen, damit ich darüber bestimmte Benachrichtigungen vom NAS erhalten kann.

    Energie, Reiter Energie-Zeitplan

    • Hier habe ich einen Zeitplan angelegt, der bewirkt, dass das Gerät über Nacht ausgeschalten wird bzw. im Standby läuft.

    DDNS und Portweiterleitungen

    Auf meiner Fritz!Box habe ich dann erst einmal für folgende Ports eine Weiterleitung auf das NAS angelegt:

    • Port 5000NAS, Port 5000 – eigentlich für HTTP-Verbindungen, wird aber automatisch auf 5001 umgeleitet. Ist aber halt einfacher zur Eingabe im Browser, weil man sich das http:// bzw. das https:// sparen kann.
    • Port 5001NAS, Port 5001 – für die HTTPS-Verbindung auf die Admin-Oberfläche des NAS.
    • Port 5022NAS, Port 22 – so kann ich mich aus dem Internet per SSH auf der Shell anmelden.

    Natürlich ist, wie gesagt, die Fritz!Box auch für die Verbindung mit dem Dynamic-DNS-Dienst zuständig. Aber das hatte ich sowieso schon konfiguriert.

    Ordner mounten

    Meinen gemeinsamen Ordner namens Medien habe ich zunächst einmal so gemountet:

    sudo mkdir /media/Medien
    sudo mount -t nfs 192.168.21.20:/volume1/Medien /media/Medien

    Bei Gelegenheit werde ich dann noch einen entsprechenden Eintrag in der fstab machen. Dazu aber auch später mehr.

    Und weiter?

    Wie gesagt, möchte ich euch demnächst noch mehr aus dem Dunstkreis NAS schreiben. Aber ich muss natürlich auch erst einmal alles aufbauen und durchspielen, durchtesten usw. Ich werde definitiv noch etwas zum Squeezebox-Betrieb schreiben. Außerdem wird es so etwas wie ein How-To für die Installation von pyLoad, einem Downloader, auf dem NAS geben.

    pssst, weitersagen!
    • Add to favorites
    • Facebook
    • Twitter
    • Google Reader
    • Google Buzz