ubuntuusers.de

25. Juli 2011

Unter Windows gibt es das AVR Studio, Bascom oder teure C Compiler mit IDE. Unter Linux fehlt sowas vollständig. Man muss sich seine Umgebung mit dem avr-gcc selbst einrichten.

Die einen verwenden normale Editoren wie Gedit oder Geany, andere vim oder Emacs oder man greift gleich zu Eclipse. Aber keines davon konnte mich bisher überzeugen. Eclipse ist mir einfach zu aufgeblasen und fett, vim und Emacs nicht mein Ding. Am besten eignet sich für mich immer noch Geany, wobei mich dabei immer stört, dass man eine Source Datei im Root Verzeichnis des Projekts auswählen muss, bevor man make aus Geany heraus aufrufen kann. Das Build System passt sich immer automatisch an die aktuelle Datei an. Es fehlt eine richtige Projektverwaltung.

Deshalb habe ich es mir jetzt mal zur Aufgabe gemacht, eine einfache aber trotzdem halbwegs komfortable IDE für die AVR Entwicklung zu basteln. Am geeignetsten erschien mir Anjuta. Bisher basiert das Projekt auf einem einfachen Makefile Projekt. Das heißt, dass man später neue Source Files immer noch von Hand in das Makefile eintragen muss. Später will ich versuchen, das Ganze mit Automake umzusetzen.

Es ist bereits möglich, einfache Projekte zu erstellen, ohne das Makefile manuell bearbeiten zu müssen. Alle Grundeinstellungen können in einem Wizard vorgenommen werden und das Makefile nutzt die Möglichkeiten von Anjuta. So lässt sich avrdude zum Programmieren des AVR über “Projekt installieren” aufrufen.

Hier noch eine kleine Vorschau des Wizards (Video nur im Blog zu sehen)

 

    Zur Abwechslung schreiben wir heute mal wieder einen Einsteigerartikel. Da dieser sehr umfangreich wird, haben wir ihn auf drei Seiten ausgedehnt.

    Welche Vorbereitungen muss man treffen?

    Wir raten euch dringend eure Daten vorher auf einem externen Speichermedium zu sichern. Am besten eignen sich dabei natürlich externe Festplatten. Das ist deshalb so wichtig, weil bei unüberlegtem Handeln die Festplatte formatiert wird und somit alle Daten weg sind. Das wollen wir natürlich nicht, darum sichert die Daten!

    Welche Distribution wählen?

    Das Logo unseres Blogs

    Zuerst sollte man sich entscheiden, welches Linux mach installieren möchte. Denn Linux teilt sich in verschiedene Distriubtionen, die es wie Sand am Meer gibt. Letztendlich kann man aus dem großen Pool an Varianten aber etwa drei herauspicken, die sich in den zwanzig Jahren Evolution von Linux herauskristallisiert haben.
    Der Platzhirsch unter den Distributionen ist seit einigen Jahren Ubuntu. Ubuntu hat einen hohen Bedienkomfort und viele vorinstallierte Programme. Neue Versionen erscheinen zweimal im Jahr.
    Auch sehr beliebt ist Fedora. Der Fokus dieser Distribuntion liegt auf Firmenanwendungen, ist aber auch für den häuslichen Gebrauch gut geeignet, wenngleich die Bedienung für Anfänger etwas komplizierter sein soll.
    Als drittes ist noch OpenSuse zu nennen. Früher war das sozusagen der Markführer, ist aber von den beiden erstgenannten überholt worden. Die Oberfläche wird oft als „überladen“ und „langsam“ beschrieben.
    Ihr werdet sehr früh hier im Artikel merken, dass unser Schwerpunkt auf Ubuntu liegt, weil wir das selbst benutzen und deswegen besser darüber berichten können.

    Es gibt noch tausende andere Linuxdistributionen, eine geordnete Übersicht findet ihr auf distrowatch.com

    Downloadtabelle

    Die folgenden Links weisen auf Torrent Dateien hin, über die ihr direkt die Dateien für die Installation bekommt. Dabei werden die ISOs von verschiedenen Servern (meistens Hochschulserver) heruntergeladen und geben dadurch schnellste Downloadgeschwidigkeit. Mehr über Torrents erfährst du hier. Wie ihr mit den Dateien weiter verfahrt, erfahrt ihr auf der nächsten Seite.

     

    Ubuntu 11.04 Fedora 15 Open Suse
    32 Bit 32 Bit 32 Bit
    64 Bit 64 Bit 64 Bit

    Welche Architektur wählen?

    Außerdem solltet ihr euch Gedanken über die Architektur machen. Im Regelfall kann man die 64 Bit Version wählen (besonders bei neueren PCs), abgesehen von Netbooks. Diese sollten die 32 Bit nehmen. Ihr solltet am besten mal die Beschreibung des Prozessors beachten, der in eurem PC installiert ist.

    Weiterführende Informationen sind bei ubuntuusers gesammelt.

    Kann man Linux und Windows parallel installieren?

    Ja, man kann. In diesem Fall wird man beim Hochfahren des PCs gefragt, welches Betriebssystem man starten möchte. Man kann es sogar so einrichten, dass eine gemeinsame Partition auf der Festplatte ist, die sowohl von Linux als auch von Windows benutzt werden kann. Daten wie Musik oder Fotos können damit unter beiden Betriebssystemen benutzt werden.
    Wie das geht erfahrt ihr auf der zweiten Seite unter dem Punkt “Partitionieren”.

    Weiter geht’s auf Seite 2 →!

    Vor kurzem ist die neue Version des freien Mapeditors Tiled (wird unter anderem bei Invertika benutzt) erschienen. Die neuen Features sind dabei ziemlich reichhaltig:

    • Unterstützung von gespiegelten Tiles
    • Copy & Paste Support für Objekte
    • Support für das Verschmelzen von Ebenen
    • Lua Export Plugin
    • Droidcraft Plugin (von mir :) )

    Neben diesen Änderungen gibt es noch viele weitere Dinge welche verbessert wurden. So wurde zum Beispiel das Automapping verbessert vor allem bezüglich der dabei entstandenen Speicherbelastung. Auch die Übersetzungen wurden natürlich wieder aktualisiert. Tiled kann dabei unter http://www.mapeditor.org/ für die Systeme Linux, Windows und Mac OS X bezogen werden.

    24. Juli 2011

    Linux/Ubuntu braucht mehr Software für den Professionellen Bereich, das hört man immer wieder und stimmt teilweise auch. Anscheinend gibt es bei der Videobearbeitung noch keine konkurrenzfähige Open Source Alternative zu den Programmen für Windows/Mac, das soll sich nun mit Novacut ändern. Leider fehlt, wie so oft, noch etwas Geld um die weitere Entwicklung zu finanzieren, deshalb sammelt Novacut nun über Kickstarter.com.

    Nur noch 5 Tage dann muss Novacut die 25’000$ an Spenden zusammen haben sonst kriegen sie nichts (die Spenden werden erst von der Kreditkarte abgebucht wenn die 25’000$-Limite erreicht ist).

    Weil ich gestern Abend etwas Glück beim Roulette hatte und der Dollar-Kurs so tief ist (1$ = 0.82 CHF) hab ich auch etwas gespendet :D  Ich persönlich hab eigentlich nichts mit Videobearbeitung am Hut, aber mir gefällt die Idee und hoffe das Künstler durch Open Source Software eher dazu tendieren ihre Werke unter der Creative Commons Lizenz zu veröffentlichen, wovon ich dann auch wieder profitieren könnte ;)

    Es fehlen noch ein paar Tausend.. Novacut auf Kickstarter

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

    Da ich in der letzten Zeit bei einigen Leuten Ubuntu 10.04 installieren musste, habe ich noch ein paar zusätzliche Backports erstellt.

    Zuerst wäre da die Lucid-Version des Paket “nspluginwrapper” (PPA siehe Artikel “Backport des Pakets “nspluginwrapper””).

    Zusätzlich habe ich mir die Mühe gemacht alle Pakete, welche das Artwork von Ubuntu 11.04 bereitstellen, auf Ubuntu 10.04 aka Lucid Lynx zurückzuportieren. Den Backport des Artworks habe ich gemacht, weil ich persönlich die Optik von Ubuntu 11.04 ansprechender finde als die von Ubuntu 10.04 und ich bisher kein PPA fand, welches dieses Artwork auch für Ubuntu 10.04 bereitstellt.

    Um das Artwork einzuspielen, reichen die folgenden Befehle:

    sudo add-apt-repository ppa:glasen/ubuntu-artwork-backport
    sudo apt-get update
    sudo apt-get upgrade

    Ich habe die Versionsnummer so angepasst, dass es bei einem Update auf Ubuntu 10.10 diese Pakete normal aktualisiert werden und gegen dessen Versionen ersetzt werden. So sollte es aus dieser Richtung keine Probleme bei einem Upgrade geben.

    23. Juli 2011



    Falls ihr hungrig nach verwendungsfreien Cliparts seid, dann ist die OpenClipartLibrary wohl die Anlaufstelle schlecht hin. Das ein oder andere Mal ist ja auch bereits darüber geschrieben worden. Dem Artikel von Roman blieber nur anzufügen, dass es verschiedene Paket für Ubuntu als auch für openSUSE gibt. Beide Distributionen halten ein Paket bereit welches OpenOffice_org-openclipart bzw. libreoffice-openclipart heisst und die Cliparts in den benötigten Pfad des entsprechenden Office installiert. Ubuntu selbst hält ein Paket bereit, welches SVG als auch die PNG dazu enthält und wie auch openSUSE, beides getrennt. openclipart-svg bzw. openclipart-png. Die ganze Sache hat allerdings einige Haken, erster Haken OOo als auch LibreOffice verwenden W3C-konform SVG also nicht alle SVG werden fehlerfrei dargestellt. Zweiter Haken das letzte “Release” einer Downloadversion von OCAL war im März 2010 (inoffiziell gibt es noch eine Version 2.3)  und auf diesem basieren die Pakete maximal. Der komplette Download dieser Pakete verursacht einfach zu viel Traffic auf den Servern des Projektes, die ohnehin schon manchmal total überlastet sind. Schliesslich werden vom Server PNG generiert von den SVG die der Library hinzugefügt wurden. Das geht manchmal in wenigen Minuten, dauert aber manchmal auch Stunden. Ausserdem kann man ja das Clipart als Nutzer auch in der gewünschten Auflösung abfragen, auch diese Bilder werden vom Server generiert. Nutzer von Inkscape können ja auch direkt die SVG in Inkscape importieren, wobei der Suchalgorythmus als auch die Antwortgeschwindigkeit zu wünschen übrig läßt. Die Exportfunktion, über die Inkscape einst verfügte, ist derzeit auf Eis gelegt und nicht verfügbar, bis die OCAL-Entwickler bessere Lösungen für Tagging usw. entwickelt haben. Da sehe ich aber Schwarz.

    Seit geraumer Zeit benutzt OCAL das Aiki Framework als Plattform. Seit dem ist OCAL eine Dauerbaustelle in den letzten Monaten sind viele neue Funktionen hinzugekommen, wie zum Beispiel die Collections. Die waren übrigens letzte Nacht möglich herunter zu laden, da geht also die Reise hin. Es fehlt allerdings absolut an Manpower. Falls sich also jetzt jemand berufen fühlt an Aiki bzw. der OCAL als Entwickler mitzuarbeiten, nur zu! Es wäre ja schade in Zukunft auf dieses Projekt und die enthaltenen Cliparts verzichten zu müssen. Das sind übrigens die meinigen des Monats Juli:

    tacopancakeshamburger menusandwich menuBratwurstsandwichPizzachicken nuggetschicken nuggets menufried chickenice creampommes fritesSoftdrinkCheeseburgerDoughnutHot DogPopcornMais

    Ich selbst werde mich wohl nächsten Monat(en) ein wenig um die Überarbeitung der GUI bemühen, da gibt es durchaus Dinge die mich absolut nerven. Wie zum Beispiel, dass ich mich ausloggen muss, um dem Link eines Tag zu folgen, belieb ich eingeloggt würde sich das Bearbeitungsfenster öffnen. Ich sehe aber auch keine “Likes” wenn ich eingeloggt bin und die Übersichtsseite meine Cliparts öffne, die sehe ich nur im Clipartfenster selbst oder in einer Sammlung. Und so gibt es so einige Sachen, die man da in Sachen Usability tun kann. Da gibt es auch versteckte Links wie zum Beispiel http://openclipart.org/bydate , wo man die Übersicht der letzten Uploads sehen kann und nicht nur die letzten Sechs.  Wo ein Clipart teilweise recht schnell verschwunden ist von der Frontpage. Dabei dürfte wohl auch so einiges an Performance herausspringen. Ich jedenfalls finde die OpenClipartLibrary ist ein nützliches Projekt, dem man etwas Zeit widmen kann.

    22. Juli 2011

    Heute hat das freie Creative Commons Web-Radio-Projekt Radio GFM sein Programm in drei Musikrichtungen aufgeteilt. Die Eröffnungssendung gibt es übrigens auch als Podcast zum Download.

    • Radio GFM – RockPop (bisher Radio GFM)
    • Radio GFM – Electro
    • Radio GFM – Metal

    Nachdem ich bereits seit über einem Jahr blogge und gleichzeitig ehrenamtlich in der Musikredaktion von Radio GFM – GEMA-FREIE MUSIK tätig bin, habe ich mich entschlossen, die Synergien zwischen diesen beiden Projekten (Blog/Radio GFM) zu analysieren und sie effizient zu bündeln.

    Die hier vorgestellten Songs (“Musiktipp der Woche“) werden zukünftig umgehend direkt in die Playliste des  Web-Radio-Projekts von Gregor Atzbach einfliessen und gespielt.

    Ein Schritt, von dem beide Seiten profitieren und mir einiges an Zeit einspart.

    Dank dieser Partnerschaft wird das Musik-Repetoire von Radio GFM abwechslungsreicher und die Musikempfehlungen werden in Marcos Blog neben dem freien Vorbis- nun auch im populären MP3-Format angeboten.

    Radio GFM hat ein Computer-Umsteiger-Kurs (GFM Tux) im Programm für bisherige Windows-Nutzer. Die Sendungen gibt es sowohl Live als auch als Podcast zum Download.

    Links
    Radio GFM – GEMA-FREIE MUSIK
    Gregor Atzbach Homepage
    Radio GFM bei Twitter
    Radio GFM bei Identi.ca

    An meinem Rechner sind zwei Festplatten extern via USB angeschlossen – beide mit Truecrypt verschlüsselt. in Truecrypt selbst habe ich Favoriten angelegt, wodurch die Platten in meinen Augen schneller und mit weniger Aufwand eingehängt werden können.

    Nun hatte ich allerdings das Problem, dass die Platten immer mal anders erkannt wurden. Hieß die Platte ursprünglich /dev/sdj heißt sie nach einem Neustart gerne mal plötzlich /dev/sdk – zum Beispiel wenn ich den Kindle oder mp3-Player am Rechner angeschlossen hatte. Dadurch funktionierten die in Truecrypt angelegten Favoriten nicht mehr. Man musste die Datei ~/.TrueCrypt/Favorite Volumes.xml erst wieder von Hand anpassen, damit die Favoriten wieder funktionieren.

    Mit der Zeit ging mir das ständige hin und her Anpassen auf die Nerven, also suchte ich nach einer Lösung, wie man das umgehen kann. Auf Twitter wurde ich dann von Jan auf den udev-Artikel im Ubuntuusers-Wiki hingewiesen. Anhand der Seriennummer den Platten kann man diesen jeweils einen Symlink zuweisen, den udev verwendet, um auf den eigentlichen Device-Namen zu verlinken, egal wie die Platte vom System erkannt wird.

    Eine Anleitung spar ich mir an dieser Stelle einfach mal, denn ich finde das ist im udev-Artikel einfach und ausführlich erklärt.

    Der folgende Text ist kurz nach einem Update von Ubuntu Version 10.10 auf 11.04 entstanden und daher etwas emotional geschrieben...

    Als Linux-User ist man ja oft zu Kompromissen bereit, aber jede Flexibilität hat ihre Grenzen und meine endet wohl mit und bei Unity. Was hat man sich dabei gedacht? Mag sein, dass es irgendwie besonders modern wirkt und auf Netbooks, sowie kleinen Monitoren vielleicht sogar ganz sinnvoll ist, allerdings mutet der „Zwang“ zum Umstieg auf selbige, revolutionäre Neuerung mehr als seltsam an.
    Zuerst die Umstellung der Fenster-Knöpfe auf die linke Seite, wo ich als PC User diese schon seit einer gefühlten Ewigkeit auf der rechten Seite nutze und nun das ach so revolutionäre Unity.
    Zwar konnte man die besagten Knöpfe mittels Befehl über das Terminal wieder auf der „richtigen“ Seite platzieren und auch Unity bietet den unwilligen Usern noch eine s.g. klassische Oberfläche an, die sich kaum von der aktuellen Gnome 2 Variante unterscheidet, allerdings soll diese schon mit dem nächsten Versionssprung verschwinden...

    Auf ganz normalen Desktop-Rechnern mit Bildschirmen jenseits der 10 Zoll wird man von dem „modernen“ Schwarz nahezu erschlagen. Man kann auf normalen Weg keine Dateien auf dem Desktop ablegen und die Übersicht der geöffneten Fenster ist zu einem farbigen Knopf auf der linken Seite verkommen, der zwar auf viele Arten leuchten kann, aber von der Benutzerfreundlichkeit einem Stein gleichkommt. Allerhand Tastenkombinationen wurden eingeführt, die jeden Anfänger noch mehr überfordern werden... alles in allem will man wohl mit dem Design neue User ansprechen und stößt damit alten Gewohnheiten vor den Kopf, die Benutzerfreundlichkeit hingegen ist dank vielerlei Tastenkombinationen eher etwas für Geeks, da sich unbedarfte Nutzer selbst mit Strg + C / V schwer tun.

    Aber das ist ja nicht alles in der schönen, neuen Linux-Welt, was mich aufzuregen weiß, denn man könnte ja noch auf Gnome 3 zurück greifen... (z.B. über die Distribution Mint oder Fedora)... ABER auch der neue Gnome 3 Desktop (der über kurz oder lang auch auf Mint landen wird, welches sich noch tapfer dagegen erwehrt) ist ein Krampf in Sachen Benutzung und Aussehen. Minimalismus ist ja angesagt wie nie zuvor (siehe meine Meinung zu Unity oben), aber Gnome hat nun weniger Charme als eine DOS Anwendung. So prangt das Panel in schwarz und mit gerade einmal 3 „Knöpfen“ (ich traue mich kaum, diese so zu nennen) am oberen Bildschirm und schreit einem förmlich entgegen, dass nun die „Kunst“ eingezogen ist. Mag sein, dass man mittels Gnome-Tweak das - auf css und Javascript basierende - Menü einigermaßen anpassen und als etwas fähigerer User auch noch weit mehr heraus holen kann, aber WARUM hat man Gnome nicht einen kleinen Rest Würde in Sachen Design von vorne herein mitgegeben?!

    Aber wie sagt der Volksmund: Kunst liegt im Auge des Betrachters.

    Lange Rede kurzer Sinn: Umstieg. Es stimmt mich schon traurig, da ich lange und gerne Ubuntu genutzt und vielen dieses Betriebssystem empfohlen habe. Aber den eingeschlagenen Weg werde und möchte ich zumindest auf meinem, alltäglich genutzten Rechner nicht mitgehen. Unverzichtbar wird wohl Ubuntu auch weiterhin auf Netbook und HTPC( XBMC ) laufen.

    Alternativen? Viele! Derer drei möchte ich nun einmal ganz kurz umreißen:

    Kubuntu
    Auf KDE basierendes „Ubuntu“ - leider scheint mir KDE hier nicht besonders gut integriert zu sein, das ganze System fühlt sich irgendwie wacklig an und ich befürchte, dass meine Daten auf einer Floppy-Disk besser geschützt wären. Zwar kann der subjektive Eindruck täuschen, allerdings möchte ich mit einem guten Gefühl vor meinem PC sitzen und nicht denken, dass im nächsten Moment wieder alles verschwunden ist. Vielleicht wirkt aber auch einfach der Fade Beigeschmack von der Vorgehensweise bei Unity nach...


    Mint
    Ein Fork von Ubuntu 11.04, allerdings mit dem alten Gnome 2 Desktop. Sehr interessante Distribution, da auch von Hause aus schon alle möglichen Erweiterungen / Pakete zur Medienwiedergabe mitgeliefert werden. Wer keinen großen Sprung machen möchte bzw. nicht willens ist, sich großartig umzustellen, der ist mit Mint sehr gut beraten. Mich hat allerdings die Tatsache vom Umstieg auf Mint abgehalten, dass es nicht auf lange Zeit Gnome 2 nutzen kann und früher oder später auch bei Version 3 landet und ich möchte nicht jährlich die Distribution wechseln müssen.


    OpenSuse
    Der totale Umstieg... KDE und eine vollkommen andere Grundlage. Da ich schon einmal vor mehr als 10 Jahren in diese Distribution geschaut habe, war die Neugier groß, was sich so alles getan hat – und es ist eine ganze Menge. Aber so ein Umstieg verlangt Geduld, da man sich an etliche neue Programme gewöhnen muss (auch wenn man die alltäglichen wie Chromium und Firefox natürlich auch hier findet) und diese hätte man auch für das Erlernen der Unity Eigenarten oder die Einrichtung von Gnome 3 verwenden können. Aber wenn die Entwickler von Gnome und Unity in solchem Maße die alten User vergraulen, dann trenne ich mich für meinen Teil von deren Arbeit. Eine kleine Anleitung zum Überwinden der ersten Hindernisse werde ich in den kommenden Tagen veröffentlichen.

    “Hier ist es. Vergangen sind die Tage von 2.6.<großeZahl>, und 3.0 ist raus”.

    Mit diesen Worten gab Linux-Schöpfer Linus Torvalds Kernel-Version 3.0 frei – nach insgesamt 20 Jahren der Linux-Entwicklung. Erneut betonte Torvalds, dass die neue Version keine großen Änderungen beinhaltet, sondern lediglich mit den alten, unübersichtlichen Versionsnummern bricht.

    Zu den dennoch vorhandenen Neuerungen gehören etwa die Verbesserung des Btrfs-Dateissystems, welches nun die automatische Defragmentierung und eine verbesserte Performance besitzt. Ebenfalls ausgebaut wurden der dom0-Support für XEN-Hosts sowie der Wake-on-WLAN-Support. Daneben gibt es wieder massenweise neue Treiber für alle Geräteklassen. Ebenfalls konnten die Kompatibilitätsprobleme der neuen Versionsnummern behoben werden, sodass der Kernel nicht wie in den Vorab-Versionen die Nummer 3.0.0 trägt. Durch Änderungen bei den Flags, mit denen der Kernel standardmäßig kompiliert wird, konnte die Code-Größe verringert werden.

    Gleichzeitig mit der Veröffentlichung der neuen Kernelversion wurde das Merge Window für Version 3.1 geöffnet. Während des Merge Window können die Kernelentwickler Code-Vorschläge für die nächste Kernelversion einreichen. Zukünftige Linux-Versionen werden in Zukunft nur noch zweistellig sein, die dritte Stelle ist den Entwicklern der Stable-Kernelreihe vorbehalten, die früher die 4. Stelle zugewiesen bekamen.

    Der Quellcode der neuen Kernel-Version kann von Kernel.org, oder einem der zahlreichen Spiegelserver heruntergeladen werden.

    20. Juli 2011

    vmware-install.pl: Komandozeilenoptionen

    Inhalt
    Beim Installieren der VMware-Tools unter Linux stellt das Script vmware-install.pl eine Menge Fragen.

    Dies ist insbesondere lästig, wenn die Tools – z.B. nach einem Kernel-Update – erneut installiert werden müssen.

    Auch für die automatische Bereitstellung von Maschinen ist die Fragerei hinderlich.

    Mit den richtigen Kommandozeilenoptionen kann man die Installation automatisieren.

    Entpacken der VMware-Tools

    Im VMware-Player oder der VMware Console muss der Menüpunkt “Virtual Machine / (Re-)Install VMware Tools” ausgewählt werden.
    Hiermit ‘schiebt’ VMware dann eine (virtuelle) CD in das Laufwerk.

    Diese CD wird dann vom Gast-Betriebssystem (meistens) automatisch gemountet.

    # optional (mounten der CD)
    mount | grep VMware\ Tools ||
        ( mkdir /media/"VMware Tools" &&
          mount /dev/cdrom /media/"VMware Tools" )
    
    # Entpacken der Tools
    cd /tmp
    tar xzf /media/VMware\ Tools/VMwareTools-*.tar.gz

    Für eine automatische Installation legt man sich das .tar.gz Archiv an eine geeignete Stelle und überträgt es mit wget, scp, mount oder auf anderen Wegen (z.B. BladeLogic RSCD-Agent).

    Vorsicht: Das Installationsscript umountet die CD am Ende der Installation

    Found VMware Tools CDROM mounted at /media/VMware Tools. Ejecting device
    /dev/sr0 ...

    Voraussetzungen

    Anders als bei einer rpm-basierten Installation muss der Administrator sich selbst um die erforderlichen Voraussetzungen kümmern. Da bei der Installation der VMware Tools im zweiten Schritt die erforderlichen Kernelmodule kompiliert werden, müssen einige Pakete auf dem System installiert sein.

    Ubuntu

    Für Ubuntu habe ich bereits früher eine Anleitung geschrieben.

    sudo apt-get install  build-essential linux-headers-`uname -r`

    OpenSuSE 11.4

    zypper in make gcc kernel-devel
    ## (muss zur laufenden Kernel Version passen!)

    vmware-install.pl

    Für die meisten Distributionen, stellt VMware kein fertiges Paket (z.B. .rpm), sondern ein .tar.gz Archiv  zur Verfügung.
    Hier erfolgt die Installation über das Perl-Script vmware-install.pl.

    Beim Aufruf ohne Optionen stellt das Script viele Fragen auf der Kommandozeile. In den meisten Fällen können die Standardwerte verwendet werden.

    Usage

    Mit -h kann man dem Programm eine (schlecht lesbare) Usage entlocken.

    buddysuse:/tmp/vmware-tools-distrib # ./vmware-install.pl -h
    VMware Tools 8.4.6 build-385536 for Linux installer
    Usage: ./vmware-install.pl [[-][-]d[efault]]
    default: Automatically answer questions with the proposed answer.
    [[-][-]prefix=<path to install product: bin, lib, doc>   
    Put the installation at <path> instead of the default location. 
    This implies '--default'.
    --clobber-kernel-modules=<module1,module2,...>   
    Forcefully removes any VMware related modules installed by any
    other installer and installs the modules provided by this installer. 
    This is a comma seperated list of modules.

    Defaulteinstellungen verwenden: -d

    Mit dem Schalter -d werden alle Defaulteinstellungen übernommen. Dies entspricht dem Ablauf, wenn alle Fragen mit <RETURN> bzw. Y beantwortet werden.

    Prefix ändern: -prefix=/usr/local

    Wer den Installationspfad (Standard: /usr/bin, /usr/sbin, /usr/lib,…) ändern will, kann z.B. -prefix=/usr/local angeben.
    Vorsicht: “This implies –default”, das Script stellt also keine Fragen mehr.

    –clobber-kernel-modules

    Bei einigen Distributionen (z.B. OpenSuSE) sind ggf. die open-vm-tools, open-vm-tools-gui und entsprechende Kernel-Module bereits installiert.
    vmware-install.pl wird sich dann weigern, diese Module zu installieren, wenn nicht die Option –clobber-kernel-modules angegeben wird.

    The module vmxnet3 has already been installed on this system by another
    installer or package and will not be modified by this installer.  Use the flag
    --clobber-kernel-modules=vmxnet3 to override.
    
    The module pvscsi has already been installed on this system by another
    installer or package and will not be modified by this installer.  Use the flag
    --clobber-kernel-modules=pvscsi to override.

    Zur Zeit installieren die VMware Tools diese Module:

    --clobber-kernel-modules=vmhgfs,vmxnet,vmblock,vmci,vsock,vmxnet3,pvscsi

    ‘Geheime’ Optionen

    Ein Blick in das Perl-Script verrät, dass es noch weitere – nicht dokumentierte – Optionen gibt.

             if (lc($arg) =~ /^(-)?(-)?d(efault)?$/) {
               $gOption{'default'} = 1;
             } elsif (lc($arg) =~ /^--clobber-kernel-modules=([\w,]+)$/) {
               $gOption{'clobberKernelModules'} = "$1";
             } elsif (lc($arg) =~ /^(-)?(-)?nested$/) {
               $gOption{'nested'} = 1;
             } elsif (lc($arg) =~ /^-?-?prefix=(.+)/) {
               $gOption{'prefix'} = $1;
             } elsif ($arg =~ /=yes/ || $arg =~ /=no/) {
               push(@setOption, $arg);
             } elsif (lc($arg) =~ /^(-)?(-)?(no-create-shortcuts)$/) {
               $gOption{'create_shortcuts'} = 0;
             } else {
               install_usage();
             }

    Beispiel-Log

    Als Beispiel hier ein komplettes Log (OpenSuSE 11.4)

    Fazit

    Bei einem automatisierten Aufruf sollte man sich unbedingt eine Logdatei anlegen lassen:

    ./vmware-install.pl -d 2>&1 | tee install.log

    Sonst weiß man bei Problemen nicht, was geklappt hat und was nicht. Wenn alles gut ging, ist der Exitcode = 0, sonst (meistens) = 1.

    VMware Tools: Silent Install unter Linux ist ein Beitrag von: kenntwas.de - Technische Tipps

    Ubuntu Logo

    Ab und zu kommt es vor, dass ich daily-PPA’s oder neue PPA’s ausprobiere um neuere Versionen von Programmen zu bekommen. Dementsprechend möchte ich auch ab und an wieder zurück zur alten Programmversion. Dies klappte bei mir mit Gwibber leider nicht reibungslos, es kam nach dem deinstallieren und entfernen des PPA’s immer der folgende Fehler:
     
     
     
     
     
     
     
     
     
     

    matze@matze-pc:~$ sudo apt-get install gwibber
    Paketlisten werden gelesen... Fertig
    Abhängigkeitsbaum wird aufgebaut
    Statusinformationen werden eingelesen... Fertig
    Einige Pakete konnten nicht installiert werden. Das kann bedeuten, dass
    Sie eine unmögliche Situation angefordert haben oder, wenn Sie die
    Unstable-Distribution verwenden, dass einige erforderliche Pakete noch
    nicht erstellt wurden oder Incoming noch nicht verlassen haben.
    Die folgenden Informationen helfen Ihnen vielleicht, die Situation zu lösen:
    Die folgenden Pakete haben unerfüllte Abhängigkeiten:
    gwibber : Hängt ab von: gwibber-service (= 3.0.0.1-0ubuntu3) aber 3.1.0~bzr997-0ubuntu1~daily1 soll installiert werden
    E: Beschädigte Paketematze@matze-pc:~$
    
    

    Im IRC-Chat #ubuntu-de auf freenode wurde mir der Tipp mit ppa-purge gegeben.

    PPA-Purge ist ein kleines Kommandozeile-Tool welches auch in den Standard Ubuntu Quellen vorhanden ist, daher kann man es einfach mittels dem Befehl ausführe.

    sudo apt-get install ppa-purge
    
    

    installieren.

    Um das PPA zu entfernen muss man es noch eingetragen haben und anschließend mit dem Befehl

    sudo ppa-purge ppa:
    
    

    Hinter das ppa: kommt der entsprechende Name des PPA’s. Mit meinem Beispiel von Gwibber würde der Befehl so aussehen:

    sudo ppa-purge ppa:gwibber-daily/ppa
    
    

    Damit wird das PPA aus der Quelle entfernt, die installierte Version des Programms deinstalliert und automatisch wieder die Version des Programms installiert die in den Standard Ubuntu Quellen, bzw. eben der entprechenden Distribution, enthalten ist. Vorrausgesetzt ihr habt keine Konfigurationen/Chache-Daten gelöscht, bleiben auch alle Anwendungsdaten vorhanden und ihr könnt da weiter machen wo ihr aufgehört habt.
    Ich finde das ist ein sehr praktisches Tool und kann einem schnell und unkompliziert weiter helfen! Welche Tipps für kleine, handliche Helfer habt ihr?

    flattr this!

    Natürlich geht es hier nicht um das Entpacken von analogen Paketen, zum Beispiel an Weihnachten. Es geht stattdessen um das Entpacken von Archiven, die mit unterschiedlichen Komprimierungsalgorithmen verkleinert wurden.

    Das Programm, das dies vornehmen kann heißt unp (unpack). Es kann mit tar, zip, rar und deb-Archiven umgehen.
    Damit ist es nicht mehr nötig ein tar-Archiv über

    1
    
    tar -xvzf file.tar.gz
    tar -xvzf file.tar.gz

    oder

    1
    
    tar -xvjf file.tar.bz
    tar -xvjf file.tar.bz

    zu entpacken, sondern einfach über

    1
    
    unp file.tar.gz file.tar.bz
    unp file.tar.gz file.tar.bz

    Das Entpacken von mehreren Archiven über *.tar[.gz|.bz] ist kein Problem.

    Archivformate

    In meinem Fall habe ich mir mal alle Formate anzeigen lassen, die ich mit dem Programm aufrufen kann. Dazu benutzt man den Befehl

    1
    
    unp -s
    unp -s

    Ausgabe:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    
    Known archive formats and tools:
    7z:           p7zip oder p7zip-full
    ace:          unace
    ar,deb:       binutils
    arj:          arj
    bz2:          bzip2
    cab:          cabextract
    chm:          libchm-bin oder archmage
    cpio,afio:    cpio oder afio
    dat:          tnef
    dms:          xdms
    exe:          maybe orange or unzip or unrar or unarj or lha
    gz:           gzip
    hqx:          macutils
    lha,lzh:      lha
    lzma:         xz-utils oder lzma
    lzo:          lzop
    lzx:          unlzx
    mbox:         formail und mpack
    pmd:          ppmd
    rar:          rar oder unrar oder unrar-free
    rpm:          rpm2cpio und cpio
    sea,sea.bin:  macutils
    shar:         sharutils
    tar:          tar
    tar.bz2,tbz2: tar mit bzip2
    tar.lzip:     tar mit lzip
    tar.lzop,tzo: tar mit lzop
    tar.xz,txz:   tar mit xz-utils
    tar.z:        tar mit compress
    tgz,tar.gz:   tar mit gzip
    uu:           sharutils
    xz:           xz-utils
    zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
    zoo:          zoo
    Known archive formats and tools:
    7z:           p7zip oder p7zip-full
    ace:          unace
    ar,deb:       binutils
    arj:          arj
    bz2:          bzip2
    cab:          cabextract
    chm:          libchm-bin oder archmage
    cpio,afio:    cpio oder afio
    dat:          tnef
    dms:          xdms
    exe:          maybe orange or unzip or unrar or unarj or lha
    gz:           gzip
    hqx:          macutils
    lha,lzh:      lha
    lzma:         xz-utils oder lzma
    lzo:          lzop
    lzx:          unlzx
    mbox:         formail und mpack
    pmd:          ppmd
    rar:          rar oder unrar oder unrar-free
    rpm:          rpm2cpio und cpio
    sea,sea.bin:  macutils
    shar:         sharutils
    tar:          tar
    tar.bz2,tbz2: tar mit bzip2
    tar.lzip:     tar mit lzip
    tar.lzop,tzo: tar mit lzop
    tar.xz,txz:   tar mit xz-utils
    tar.z:        tar mit compress
    tgz,tar.gz:   tar mit gzip
    uu:           sharutils
    xz:           xz-utils
    zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
    zoo:          zoo

    Hieran erkennt man auch die externen Programm, die zum Entpacken benutzt werden. Manche Archivformate sind mir sogar neu!

    Leider gibt es keine Funktion, mit der auch in Archiven enthaltene Archive entpackt werden, sodass man ein rekusives Entpacken hätte. Dies hatte ich ausprobiert.

    Desweiteren gibt es noch einen intelligenten Modus (Parameter: -U), der ein Archiv, wenn es mehrere Dateien enthält in einen Unterordner entpackt. Dieser Unterordner heißt gleich dem Archivnamen ohne Dateiendung.

    Es lassen sich auch Programmparameter an die eigentlichen Entpackprogramme wie tar übergeben, indem man

    1
    
    unp <datei.tar> -- -C /tmp/
    unp <datei.tar> -- -C /tmp/

    benutzt. Dabei sollte man allerdings darauf achten, dass man immer nur gleiche Archive angibt, sodass das dahinterstehende Entpackungsprogramm damit richtig umgehen kann. Nicht jedes Programm nutzt auch die gleichen Parameter, Geschweige denn die gleichen Reaktionen.

    Fazit

    Also im Großen und Ganzen ist das ein praktisches Tool, mit dem das Entpacken unterschiedlichster Pakete einfach vonstatten geht.
    Schön finde ich den intelligenten Modus, denn mir ist es manchmal passiert, dass sich in einem Archiv Dateien befanden, die in keinem übergeordneten Ordner lagen. Natürlich schaute ich nicht vorher in das Paket hinein und alle Dateien waren in meine aktuellen Ordner entpackt. Mühselig ist das ganze, wenn man sich in einem Verzeichnis befindet, in dem viele Dateien liegen. Das Suchen der gerade entpackten Daten ist dann fast nicht mehr zu schaffen.

    Ich habe mich noch nicht wirklich an das Programm gewöhnt – ich nutze immernoch das manuelle tar -xvf, ich hoffe, das ändert sich bald. ;-)

    Weitere Informationen

    Natürlich geht es hier nicht um das Entpacken von analogen Paketen, zum Beispiel an Weihnachten. Es geht stattdessen um das Entpacken von Archiven, die mit unterschiedlichen Komprimierungsalgorithmen verkleinert wurden.

    Das Programm, das dies vornehmen kann heißt unp (unpack). Es kann mit tar, zip, rar und deb-Archiven umgehen.
    Damit ist es nicht mehr nötig ein tar-Archiv über

    1
    
    tar -xvzf file.tar.gz
    tar -xvzf file.tar.gz

    oder

    1
    
    tar -xvjf file.tar.bz
    tar -xvjf file.tar.bz

    zu entpacken, sondern einfach über

    1
    
    unp file.tar.gz file.tar.bz
    unp file.tar.gz file.tar.bz

    Das Entpacken von mehreren Archiven über *.tar[.gz|.bz] ist kein Problem.

    Archivformate

    In meinem Fall habe ich mir mal alle Formate anzeigen lassen, die ich mit dem Programm aufrufen kann. Dazu benutzt man den Befehl

    1
    
    unp -s
    unp -s

    Ausgabe:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    
    Known archive formats and tools:
    7z:           p7zip oder p7zip-full
    ace:          unace
    ar,deb:       binutils
    arj:          arj
    bz2:          bzip2
    cab:          cabextract
    chm:          libchm-bin oder archmage
    cpio,afio:    cpio oder afio
    dat:          tnef
    dms:          xdms
    exe:          maybe orange or unzip or unrar or unarj or lha
    gz:           gzip
    hqx:          macutils
    lha,lzh:      lha
    lzma:         xz-utils oder lzma
    lzo:          lzop
    lzx:          unlzx
    mbox:         formail und mpack
    pmd:          ppmd
    rar:          rar oder unrar oder unrar-free
    rpm:          rpm2cpio und cpio
    sea,sea.bin:  macutils
    shar:         sharutils
    tar:          tar
    tar.bz2,tbz2: tar mit bzip2
    tar.lzip:     tar mit lzip
    tar.lzop,tzo: tar mit lzop
    tar.xz,txz:   tar mit xz-utils
    tar.z:        tar mit compress
    tgz,tar.gz:   tar mit gzip
    uu:           sharutils
    xz:           xz-utils
    zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
    zoo:          zoo
    Known archive formats and tools:
    7z:           p7zip oder p7zip-full
    ace:          unace
    ar,deb:       binutils
    arj:          arj
    bz2:          bzip2
    cab:          cabextract
    chm:          libchm-bin oder archmage
    cpio,afio:    cpio oder afio
    dat:          tnef
    dms:          xdms
    exe:          maybe orange or unzip or unrar or unarj or lha
    gz:           gzip
    hqx:          macutils
    lha,lzh:      lha
    lzma:         xz-utils oder lzma
    lzo:          lzop
    lzx:          unlzx
    mbox:         formail und mpack
    pmd:          ppmd
    rar:          rar oder unrar oder unrar-free
    rpm:          rpm2cpio und cpio
    sea,sea.bin:  macutils
    shar:         sharutils
    tar:          tar
    tar.bz2,tbz2: tar mit bzip2
    tar.lzip:     tar mit lzip
    tar.lzop,tzo: tar mit lzop
    tar.xz,txz:   tar mit xz-utils
    tar.z:        tar mit compress
    tgz,tar.gz:   tar mit gzip
    uu:           sharutils
    xz:           xz-utils
    zip,cbz,cbr,jar,war,ear,xpi,adf: unzip
    zoo:          zoo

    Hieran erkennt man auch die externen Programm, die zum Entpacken benutzt werden. Manche Archivformate sind mir sogar neu!

    Leider gibt es keine Funktion, mit der auch in Archiven enthaltene Archive entpackt werden, sodass man ein rekusives Entpacken hätte. Dies hatte ich ausprobiert.

    Desweiteren gibt es noch einen intelligenten Modus (Parameter: -U), der ein Archiv, wenn es mehrere Dateien enthält in einen Unterordner entpackt. Dieser Unterordner heißt gleich dem Archivnamen ohne Dateiendung.

    Es lassen sich auch Programmparameter an die eigentlichen Entpackprogramme wie tar übergeben, indem man

    1
    
    unp <datei.tar> -- -C /tmp/
    unp <datei.tar> -- -C /tmp/

    benutzt. Dabei sollte man allerdings darauf achten, dass man immer nur gleiche Archive angibt, sodass das dahinterstehende Entpackungsprogramm damit richtig umgehen kann. Nicht jedes Programm nutzt auch die gleichen Parameter, Geschweige denn die gleichen Reaktionen.

    Fazit

    Also im Großen und Ganzen ist das ein praktisches Tool, mit dem das Entpacken unterschiedlichster Pakete einfach vonstatten geht.
    Schön finde ich den intelligenten Modus, denn mir ist es manchmal passiert, dass sich in einem Archiv Dateien befanden, die in keinem übergeordneten Ordner lagen. Natürlich schaute ich nicht vorher in das Paket hinein und alle Dateien waren in meine aktuellen Ordner entpackt. Mühselig ist das ganze, wenn man sich in einem Verzeichnis befindet, in dem viele Dateien liegen. Das Suchen der gerade entpackten Daten ist dann fast nicht mehr zu schaffen.

    Ich habe mich noch nicht wirklich an das Programm gewöhnt – ich nutze immernoch das manuelle tar -xvf, ich hoffe, das ändert sich bald. ;-)

    Weitere Informationen

    Nach meinem teilweisen Umstieg von Ubuntu auf OpenSUSE, was hauptsächlich Unity geschuldet ist (einen ausführlichen Beitrag dazu werde ich evtl. noch nachreichen), hier nun einige Schritte, die nach einer frischen Installation sinnvoll, notwendig oder erstrebenswert sind.

    Die Anleitung wird in weiteren Beiträgen fortgesetzt, ist jedoch schon jetzt recht ausführlich / umfangreich.

    Über Anmerkungen / Ergänzungen im Kommentar-Bereich freue ich mich.

    Zur Anleitung gelangt ihr nach dem Klick auf den Titel...
    "OpenSUSE - erste Schritte, Tipps und Tricks" vollständig lesen

    Gestern hat Oracle Version 4.1 der Virtualisierungssoftware Virtualbox veröffentlicht. Sie enthält zahlreiche neue Funktionen und Fehlerbehebungen, Details dazu gibt es im Changelog.

    Unter anderem wurde die Oberfläche erweitert, neu ist z. B. der Wizard zum Erstellen virtueller Festplatten. Es ist nun möglich, das Image-Format der Festplatten festzulegen. Zur Auswahl stehen das Standardformat VDI, genutzt werden können aber auch das unter Vmware gebräuchliche VMDK oder das VDH-Format.

    Ebenfalls kann man nun existierende Festplatten mit wenigen Mausklicks klonen. Die 64bit-Version kann bis zu 1 TerraByte RAM verwalten. Außerdem wurde die Unterstützung grafischer Effekte unter Windows (Aero) verbessert.

    Virtualbox kann als Binärpaket oder als Quellcode für zahlreiche Distributionen (zudem auch für Windows, MacOsX und Solaris) heruntergeladen werden.

    Für debian-basierte Distributionen (so auch Ubuntu) existiert ein PPA. Dafür muss man die entsprechende Zeile zur /etc/apt/sources.list hinzufügen, für Natty wäre das entsprechend

    deb http://download.virtualbox.org/virtualbox/debian natty contrib

    Die Installation erfolgt dann mit den folgenden Befehlen:

    wget -q http://download.virtualbox.org/virtualbox/debian/oracle_vbox.asc -O- | sudo apt-key add -
    sudo apt-get update
    sudo apt-get install virtualbox-4.1

    19. Juli 2011

      Das Elementary Projekt erfreut sich ja relativ großer Beliebtheit, und das meist installierte Programm wird wohl die Erweiterung für den Dateimanager Nautilus sein.
      Mit dem erscheinen von Gnome3 und somit auch Version 3 von Nautilus wird auch Nautilus Elementary nicht mehr weitergeführt.
      Das ist auch eigentlich nicht mehr nötig, da zum einem die Oberfläche von Nautilus stark vereinfacht wurde, und jetzt schon mehr dem Nautilus Elementary in Version 2.x ähnelt und das Elementary Projekt einen eigenen Dateimanager geschrieben hat.

      Installation

      Marlin in der Miniaturansicht

      Marlin in der Miniaturansicht

      Marlin heißt er und er ist in einer frühen Version schon verfügbar.
      Für Ubuntu 11.04 und 11.10 sind schon PPAs verfügbar. Um ihn zu installieren, einfach die folgenden Schritte ausführen:

      sudo add-apt-repository ppa:elementaryart/elementary-dev
      sudo apt-get update
      sudo apt-get install marlin
      

      Nun kann Marlin über das Menü gestartet werden. Unter 11.04 passt das Design noch nicht wirklich, was daran liegt, dass Natty noch auf GTK2 basiert, während Marlin schon in GTK3 geschrieben ist.
      Im neuen Oneiric Ozelot passt er sich schon dem Rest des Desktops an.

      Benutzung

      Das erste, was einem auffällt, ist dass er ziemlich schnell startet, ist ja schließlich ein junges Programm, was noch nicht so aufgebläht sein sollte.
      Ansonsten sieht Marlin aus, wie fast jeder Dateimanager. Oben gibt es eine Leiste mit Navigationselementen sowie einer Adressleiste.
      Links ist eine Spalte mit Lesezeichen zu den Standardverzeichnissen, den physikalischen sowie den Netzwerklaufwerken.

      Marlin in der Spaltenansicht

      Marlin in der Spaltenansicht

      Rechts ist eine Spalte mit Informationen über den gerade gewählten Ordner/die gewählte Datei.
      Also alles schonmal dagewesen.
      Aber wie immer sind es die Kleinigkeiten die den Unterschied machen. So kann man in die Adressleiste auch sein Ziel eintippen und muss nicht über die Breadcrumbs navigieren.

      Die Benutzeroberfläche ist auch sehr simpel gehalten und kann angepasst werden.
      Am rechten Rand der Leiste gibt es drei Buttons, die die Ansichten ändern. Die ersten zwei sind ganz normal Miniatur und Listenansicht. Die Dritte Ansicht ist eine Spaltenansicht, bei der für jede neue Ebene eine Spalte aufgemacht wird, so dass man die ganze Ordnerstruktur überblicken kann.
      Natürlich kann Marlin auch Tabs.

      Fazit

      Marlin läuft schon sehr stabil und kann also durchaus schon eingesetzt werden. Da auch, wie bereits erwähnt, Nautilus aufgeräumt wurde hat man im neuen Ubuntu die Wahl zwischen zwei guten GTK-Dateimanagern.
      Unter Ubuntu ist Nautilus wohl noch auf längere Zeit als Standard gesetzt, aber vielleicht kann sich das ja auch mal ändern. Ansonsten ist das Nachinstalliern von Marlin auch nicht sonderlich schwer.

      Normalerweise kann Conky einen farbigen Hintergrund, echte Transparenz oder Pseudotransparenz nutzen, nicht gesetzte Farbe und Pseudotransparenz zugleich.

      Wie man auf dem Bild sehen kann: Es geht doch beides. Dafür bindet man dieses lua-skript ein (via):

      --[[
      Background by londonali1010 (2009)
      This script draws a background to the Conky window. It covers the whole of the Conky window, but you can specify rounded corners, if you wish.
      To call this script in Conky, use (assuming you have saved this script to ~/scripts/):
          lua_load ~/scripts/draw_bg.lua
          lua_draw_hook_pre draw_bg
      Changelog:
      + v1.0 -- Original release (07.10.2009)
      ]]
      -- Change these settings to affect your background.
      -- "corner_r" is the radius, in pixels, of the rounded corners. If you don't want rounded corners, use 0.
      corner_r=10
      -- Set the colour and transparency (alpha) of your background.
      bg_colour=0x000000
      bg_alpha=0.4
      require 'cairo'
      function rgb_to_r_g_b(colour,alpha)
          return ((colour / 0x10000) % 0x100) / 255., ((colour / 0x100) % 0x100) / 255., (colour % 0x100) / 255., alpha
      end
      function conky_draw_bg()
          if conky_window==nil then return end
          local w=conky_window.width
          local h=conky_window.height
          local cs=cairo_xlib_surface_create(conky_window.display, conky_window.drawable, conky_window.visual, w, h)
          cr=cairo_create(cs)
          
          cairo_move_to(cr,corner_r,0)
          cairo_line_to(cr,w-corner_r,0)
          cairo_curve_to(cr,w,0,w,0,w,corner_r)
          cairo_line_to(cr,w,h-corner_r)
          cairo_curve_to(cr,w,h,w,h,w-corner_r,h)
          cairo_line_to(cr,corner_r,h)
          cairo_curve_to(cr,0,h,0,h,0,h-corner_r)
          cairo_line_to(cr,0,corner_r)
          cairo_curve_to(cr,0,0,0,0,corner_r,0)
          cairo_close_path(cr)
          
          cairo_set_source_rgba(cr,rgb_to_r_g_b(bg_colour,bg_alpha))
          cairo_fill(cr)
      end

      Irgendwo gespeichert, z.B. in ~/scripts/conky_draw.lua,wird es dann in der ~/.conkyrc aufgerufen:

      lua_load ~/scripts/conky-draw.lua
      lua_draw_hook_pre draw_bg

      Wer eigene Anwendungen schreibt der kennt das sicherlich: Die Anwendung ist fertig und es fehlen nur hier und da ein paar Icons für die Menüs und Toolbars. Die Icons sollten dabei natürlich alle zueinander passen, ein breites Spektrum abbilden und am besten unter einer freien Lizenz stehen.

      Diese Lücke füllt das Tango Desktop Project bei welchem es über 200 Icons für diese Zwecke gibt. Alle Icons stehen dabei unter Public Domain (früher CC-SA-BY), können also beliebig verwendet werden. Zu finden sind die Icons dabei unter http://tango.freedesktop.org/Tango_Desktop_Project, wo man neben den Grafiken (im PNG und SVG Format) auch die Styleguides findet um eigene Tango Icons zu entwerfen.

      Weitere Informationen gibt es unter:
      http://de.wikipedia.org/wiki/Tango_Desktop_Project

      18. Juli 2011

      Beim Bearbeiten der Bilder mit dem ExifTool (5 Digicams, unterschiedliche Zeiteinstellungen – Artikel) habe ich teilweise folgende Fehlermeldungen erhalten.

      #
      exiftool -AllDates+=10:31:53 Bild123.JPG
      Error: [minor] MakerNotes offsets may be incorrect (fix or ignore?) - Bild123.JPG
      #
      exiftool -AllDates+=2136:0:0 Bild456.JPG
      Warning: [minor] Possibly incorrect maker notes offsets (fix by -274?) - Bild456.JPG
      Error: [minor] Bad MakerNotes directory - Bild456.JPG

      Um diese Fehlermeldungen zu unterdrücken bzw. zu ignorieren, muss man den Befehlen zusätzlich die Option -m mitgeben.

      Using -m will downgrade the minor error to a warning, allowing the file to be written, but some Makernote information may be lost when ignoring certain types of errors like this.

      #
      exiftool -m -AllDates+=10:31:53 Bild123.JPG
      Warning: MakerNotes offsets may be incorrect (ignored) - Bild123.JPG
      #
      exiftool -m -AllDates+=2136:0:0 Bild456.JPG
      Warning: Deleted bad MakerNotes directory - Bild456.JPG

      Links:
      ubuntuusers.de - ExifTool
      ExifTool – Aufnahmedatum mehrerer Bilder von unterschiedlichen Digicams korrigieren


      © _nico für loggn.de - Tutorials und Erfahrungen, 2011. | Permalink | 6 comments
      _nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

      Die Medienverwaltung GCstar hat nach langer Zeit mal wieder ein kleines Update bekommen. In der neuen Version 1.6.2 werden einige Probleme mit Website-Plugins behoben und einige Fehler bereinigt. Ein komplettes Changelog gibt es hier. Leider ist GCstar 1.6.2 noch nicht im Stable-PPA angekommen, aber vielleicht kommt das ja noch. Im Daily-PPA gibt es eine Version 1.6.2, die habe ich allerdings noch nicht ausprobiert.

      Eine weitere “Neuerung” ab Version 1.6.2 ist, dass es erst einmal keine Windows-Builds mehr geben wird. Hier wird nach jemanden gesucht, der das künftig betreuen möchte.

      Möchte man die Version aus den Ubuntu-Paketquellen weiter verwenden kann man mit dem Befehl sudo gcstar -u versuchen die Plugins zu aktualisieren. Das hat bei mir bisher immer recht gut funktioniert.

      Die seit Ubuntu 11.04 Natty standartmäßig aktivierte Oberfläche “Unity” benötigt zwingend eine aktivierte Hardware-Beschleunigung. Um zu testen, ob der eigene Rechner Unity-fähig ist, reicht es, das Programm

      /usr/lib/nux/unity_support_test -p

      auszuführen. Dazu werden keine Root-Rechte benötigt. Das Programm testet die Grafikkomponenten des Systems und erstellt einen kurzen Bericht, der bei aktiviertem Unity z. B. so aussieht:

      linus@dell-laptop:~$ /usr/lib/nux/unity_support_test -p
      OpenGL vendor string:   ATI Technologies Inc.
      OpenGL renderer string: ATI Mobility Radeon HD 3400 Series
      OpenGL version string:  3.3.10665 Compatibility Profile Context
      
      Not software rendered:    yes
      Not blacklisted:          yes
      GLX fbconfig:             yes
      GLX texture from pixmap:  yes
      GL npot or rect textures: yes
      GL vertex program:        yes
      GL fragment program:      yes
      GL vertex buffer object:  yes
      GL framebuffer object:    yes
      GL version is 1.4+:       yes
      
      Unity supported:          yes

      Sobald eines der Kriterien auf “no” steht, kann man Unity3D nicht nutzen. Der Test eignet sich besonders gut dafür, über eine Live-CD vor einer möglichen Installation durchgeführt zu werden.

      Hinweis: Es gibt auch eine Unity-Version ohne 3D-Effekte, die aber dennoch die typische linke Seitenleiste besitzt und sich bis auf die deaktivierten visuellen Effekte nicht von der 3D-Version unterscheidet.

      17. Juli 2011

      Apache: Serversignatur abschalten

      Inhalt
      In der Standardkonfiguration meldet ein Apache-Webserver im HTTP-Response header seine Version.

      Auf produktiven Servern sollte man dies besser abschalten, weil die Standardkonfiguration nicht nur verrät, welche Apacheversion auf dem Server läuft, sondern auch ausführliche Informationen über die geladenen Module preisgibt.

      Beispiel

      > wget --save-headers -O- -q http://localhost/ |
           sed -n '1,/^[\r]*$/p'
      HTTP/1.1 200 OK
      Date: Sun, 17 Jul 2011 13:09:32 GMT
      Server: Apache/2.2.17 (Ubuntu) mod_fcgid/2.3.6 PHP/5.3.5-1ubuntu7.2 with Suhosin-Patch proxy_html/3.0.1 mod_python/3.3.1 Python/2.7.1+
      Last-Modified: Sun, 17 Oct 2010 22:07:52 GMT
      ETag: "a3b46-b1-492d74a861801"
      Accept-Ranges: bytes
      Content-Length: 177
      Vary: Accept-Encoding
      Keep-Alive: timeout=15, max=100
      Connection: Keep-Alive
      Content-Type: text/html

      Apache Konfiguration

      In der Apache-Konfiguration gibt es zwei Schlüsselworte, die das Aussehen der Serversignatur beeinflussen.

      • ServerTokens
      • ServerSignature

      Die Einstellungen stehen entweder in der httpd.conf, apache2.conf oder bei Ubuntu in der Datei

      /etc/apache2/conf.d/security

      ServerTokens

      Der Parameter ServerTokens ist für den HTTP-Response-Header verantwortlich (Server: …).
      Bei produktiven Servern sollte man hier Prod einstellen.

       

      #
      # ServerTokens
      # This directive configures what you return as the Server HTTP response
      # Header. The default is 'Full' which sends information about the OS-Type
      # and compiled in modules.
      # Set to one of:  Full | OS | Minimal | Minor | Major | Prod
      # where Full conveys the most information, and Prod the least.
      #
      #ServerTokens Minimal
      #ServerTokens OS
      ServerTokens Prod
      #ServerTokens Full

      ServerSignature

      Ein Apache Server verrät seine Version auch auf generierten Seiten.

      • Fehlerseiten (z.B. 404-Fehler)
      • generierten Verzeichnis Listings
      • mod_status und mod_info Seiten

      Diese Signatur kann (und sollte) ausgeschaltet werden. Wenn hier der Wert EMail verwendet wird, dann wird die konfigurierte email-Adresse ausgegeben.

      #
      # Optionally add a line containing the server version and virtual host
      # name to server-generated pages (internal error documents, FTP directory
      # listings, mod_status and mod_info output etc., but not CGI generated
      # documents or custom error documents).
      # Set to "EMail" to also include a mailto: link to the ServerAdmin.
      # Set to one of:  On | Off | EMail
      #
      ServerSignature Off
      #ServerSignature On

      Fehlermeldung mit ServerSignature=on

      Hier noch ein Beispiel für eine generierte Fehlerseite mit ServerSignature=on.

      Not Found
      
      The requested URL /icons/hh was not found on this server.
      Apache/2.2.17 (Ubuntu) mod_fcgid/2.3.6 PHP/5.3.5-1ubuntu7.2 with Suhosin-Patch proxy_html/3.0.1 mod_python/3.3.1 Python/2.7.1+ Server at localhost Port 80

       

      TraceEnable

      Das Flag TraceEnable sollte man auf produktiven Servern auch unbedingt ausschalten (off).

      Neustart erforderlich

      Nach Änderung der Apache-Konfiguration ist ein Neustart erforderlich.

      sudo /etc/init.d/apache2 restart

      Apache: Serversignatur abschalten ist ein Beitrag von: kenntwas.de - Technische Tipps

      Inhalt
      In der Standardkonfiguration gibt ein JBoss/Tomcat im HTTP-Header Informationen (X-Powered-By) über die eingesetzte Softwareversion preis.
      In produktiven Umgebungen sollte / kann man diese Informationen abschalten, um potentiellen Angreifern das Leben etwas schwerer zu machen.

      Abfrage des HTTP-Headers

      Der HTTP-Header kann z.B. mit wget abgefragt werden. Mit der Option –save-headers wird der Header mit abgespeichert. Nach einer Leerzeile ist der Header beendet.

      wget --save-headers -O- -q http://localhost:8080 |
         sed -n '1,/^[\r]*$/p'

      Das sed-Kommando gibt alle Zeilen bis zur ersten Leerzeile aus.
      Eine andere Möglichkeit ist curl –verbose http:/…..

      Beispiel einer Serversignatur

      > wget --save-headers -O- -q http://localhost:8080 | sed -n '1,/^[\r]*$/p'
      HTTP/1.1 200 OK
      Server: Apache-Coyote/1.1
      X-Powered-By: Servlet 2.4; JBoss-4.2.2.GA (build: SVNTag=JBoss_4_2_2_GA date=200710221139)/Tomcat-5.5
      ETag: W/"102-1103294408000"
      Last-Modified: Fri, 17 Dec 2004 14:40:08 GMT
      Content-Type: text/html
      Content-Length: 102
      Date: Sun, 17 Jul 2011 10:08:13 GMT
      Connection: keep-alive

      X-Powered-By deaktivieren

      Aus dem X-Powered-By Header lässt sich die genaue Version des Servers ermitteln. Angreifer, die diese Informationen kennen, sind schon einen Schritt weiter und können bekannte Schwachstellen dieser Version ausnutzen. Der Header lässt sich deaktivieren. Der Tip stammt von blog.techstack.com.

      JBoss 4.2.x

      In JBoss 4.2.x kann der X-Powered-By-Header in der Datei

      ${jboss.home}/
        server/default/deploy/jboss-web.deployer/conf/web.xml

      deaktiviert (auskommentiert) werden (etwa ab Zeile 25).

      <!-- ================== Common filter Configuration ==================== -->
      <filter>
          <filter-name>CommonHeadersFilter</filter-name>
          <filter-class>org.jboss.web.tomcat.filters.ReplyHeaderFilter</filter-class>
      <!--
          <init-param>
               <param-name>X-Powered-By</param-name>
              <param-value>Servlet 2.4; JBoss-4.2.2.GA (build: SVNTag=JBoss_4_2_2_GA date=200710221139)/Tomcat-5.5</param-value>
            </init-param>
      -->
         </filter>

      JBoss 5.0

      In JBoss 5.0 ist das Verfahren ähnlich, nur liegt die Datei web.xml an einer anderen Stelle:

      ${jboss.home}/
        server/${server.instance.name}/deployers/jbossweb.deployer/web.xml

      JBoss 6.0

      Ab JBoss 6.0 sind keine Änderungen an der web.xml mehr erforderlich.
      Hier muss die Datei catalina.properties angepasst werden.

      ${jboss.home}/
        server/${server.instance.name}/deploy/jbossweb.sar/catalina.properties

      Die Property X_POWERED_BY muss in dieser Datei auf false gesetzt werden.

      Tomcat

      Bei einer reinen Tomcat Installation (also ohne JBoss) wird der X-Powered-By Header in der Datei

      ${tomcathome}/conf/web.xml

      konfiguriert.

      Im Standard ist der Header bereits deaktiviert. (Siehe auch Tomcat 6 Basic Configuration).

        <!--   xpoweredBy          Determines whether X-Powered-By response       -->
        <!--                       header is added by generated servlet  [false]  -->
        <!--                                                                      -->
        <!-- If you wish to use Jikes to compile JSP pages:                       -->
        <!--   Please see the "Using Jikes" section of the Jasper-HowTo           -->
        <!--   page in the Tomcat documentation.                                  -->
      
          <servlet>
              <servlet-name>jsp</servlet-name>
              <servlet-class>org.apache.jasper.servlet.JspServlet</servlet-class>
              <init-param>
                  <param-name>fork</param-name>
                  <param-value>false</param-value>
              </init-param>
              <init-param>
                  <param-name>xpoweredBy</param-name>
                  <param-value>false</param-value>
              </init-param>
              <load-on-startup>3</load-on-startup>
          </servlet>

      Neustart erforderlich

      Nach den beschriebenen Änderungen ist ein Serverneustart erforderlich.

      Server – Signatur ausschalten

      Die Serversignatur (tomcat/5.0.25, coyote/1.1) kann ebenfalls abgeschaltet werden.

      JBoss

      Um die Serversignatur beim JBoss auszuschalten oder zu modifizieren, muss beim Connector in der Datei

      ${jbosshome}/
         server/default/deploy/jboss-web.deployer/server.xml

      eine zusätzliche Property server gesetzt werden.

          <Connector port="8080" address="127.0.0.1"
               maxThreads="250" maxHttpHeaderSize="8192"
               emptySessionPath="true" protocol="HTTP/1.1"
               enableLookups="false" redirectPort="8443" acceptCount="100"
               connectionTimeout="20000" disableUploadTimeout="true"
               server="this is my secret" />

      Die Property server ist normalerweise nicht gesetzt.

      > wget --save-headers -O- -q http://localhost:8080 | sed -n '1,/^[\r]*$/p'
      HTTP/1.1 200 OK
      ETag: W/"102-1103294408000"
      Last-Modified: Fri, 17 Dec 2004 14:40:08 GMT
      Content-Type: text/html
      Content-Length: 102
      Date: Sun, 17 Jul 2011 11:41:30 GMT
      Connection: keep-alive
      Server: this is my secret
      Server: Apache-Coyote/1.1

      (X-Powered-By ebenfalls deaktiviert).
      Siehe auch: Tomcat/JBoss: Suppressing Server Identity.

      Fazit

      Wirkliche Sicherheit bietet das Abschalten (Verschleiern) der Signaturen nicht. Wenn möglich sollte die Serversoftware immer auf dem letzten Stand der Technik (Patches) sein.

      JBoss/Tomcat: Serversignaturen abschalten (X-Powered-By) ist ein Beitrag von: kenntwas.de - Technische Tipps