ubuntuusers.de

16. Oktober 2011

Heute morgen habe ich mir die aktuelle Ubuntu Version "Oneiric Ocelot" auf eine freie Partition auf meinem Arbeitslaptop installiert. Produktiv ist da Lucid drauf, Oneiric "nur aus Spaß". Das Update auf meinem privaten Laptop kommt vielleicht später.

Jetzt habe ich Oneiric ca. 1h genutzt, im folgenden der "First contact report".

Installation

Der erste Überraschung hatte ich bei der Installation: Ubuntu erkennt die Webcam des Lenovo T410 out of the box und bietet dann an, zusätzlich zu den einzugebenden Nutzerinformationen für den Login ein Foto zu schießen. Nettes Gimmick. Ok, nicht wirklich wichtig, aber trotzdem nett. Ansonsten hat sich beim Installer nicht viel geändert.

Die Installation ist dann so durchgelaufen und der Neustart wird eingefordert. Dummerweise hatte ich vergessen anzugeben, dass Oneiric den vorhanden Bootloader nicht überschreiben soll (oder es wurde nicht gefragt?) - egal, jetzt ist halt GRUB 2 drauf. Beim Booten kam dann nach dem GRUB2 Menü eine Fehlermeldung, dass ein "Sparse File" nicht stimmt (oder so ähnlich). Keine Ahnung, was das heißt. Da das System aber trotzdem ohne Probleme korrekt bootet, kann ich mich da auch später drum kümmern...

Softwarecenter

Da ich bei der Installation auch vergessen hatte, dass System auf Deutsch umzustellen, ist jetzt erst Mal alles komplett auf Englisch. No problem, aber auf Dauer ist Deutsch schon schöner. Daher nutzte ich nach dem Login direkt die Gelegenheit und öffne das Softwarecenter, welches neben der Kommandozeile mit apt-get die einzige Möglichkeit ist, Software nach der Standardinstallation zu installieren. Synaptic ist mit Oneiric nicht mehr auf der Platte, aptitude so wie so nicht mehr. Da ich das Softwarecenter vorher nicht genutzt habe also noch ein neues Erlebnis. Wenn das mal nicht in einer Reizüberflutung endet...

Erstes Fazit Softwarecenter: Ist ok. Relativ intuitiv zu bedienen. Wobei der Fokus wohl eher auf der Installation von Programmen liegt, weniger auf der von Libs. Letzteres geht zwar natürlich auch, aber es ist nach meinem Empfinden darauf ausgelegt, Programme für den Einsatzfall XYZ zu finden. Na ja, ist ja auch kein Wunder, wenn Canonical darüber auch Software verkaufen will. Jedenfalls sieht es im Moment aber so aus, dass ich Synaptic nicht nachinstallieren werden.

Unity & Optik

Kommen wir mal zum eigentlichen Punkt: Unity. Die große Spannung bei Oneiric war / ist ja: Was macht Canonical aus Unity? Probleme hatte ich auch mit Unity unter Natty keine (letztendlich ist die Desktop-Oberfläche auch nur Mittel zum Zweck ;-) ), aber ich muss sagen: Mit Oneiric sind einige Dinge besser bzw. runder. Augenfällige, riesige Änderungen gibt es in meinen Augen keine, vielmehr werden  viele Dinge, welche mit Unity unter Ubuntu 11.04 begonnen wurden, konsequent weiter geführt. Somit ist vieles "runder", "schöner" etc. Wobei ich jetzt hier noch nicht mal eine spezielle Sache herausheben kann (und will), sondern vielmehr finde, dass der Gesamteindruck stimmiger ist. Zumindest für mich.

Was schon praktisch ist, ist dass man zwischen den offenen Anwendungen per Tastenkombination ALT+TAB wechseln kann. Wobei: Wenn ich mich nicht völlige irre konnten das die frühen Windowsversion auch, bei der aktuellen weiß ich es nicht.

Sonstiges

Ansonsten habe ich bis jetzt nichts augenfällig Neues bemerkt. Oder doch: Nautilus sieht etwas anders aus. Habe ich aber noch nicht aktiv genutzt, daher kann ich hier nichts dazu sagen. Natürlich sind die vorinstallierten Programme aktualisiert, Details sind z.B. im Wiki von ubuntusers.de zu finden.

Fazit

Nun gut, für ein echtes Fazit ist es viel zu früh, aber ein Zwischenstand geht: Oneiric ist solide nutzbar, no drawbacks found yet. Jedenfalls werde ich meinen privaten Laptop auch bei nächster Gelegenheit auf Oneiric upgraden. Spricht nichts gegen.

15. Oktober 2011

Ich habe lange nach einer optimalen Lösung gesucht um beim Start von XBMC diesen seperat auf dem TV zu starten.
Dabei sollte optimalerweise beim Beenden von XBMC die Anzeige wieder den normalen Ubuntu Desktop auf dem Monitor anzeigen.

Mein Rechner hier ist mit einem DVI Kabel normal an meinen Monitor angeschlossen und mit einem HDMI Kabel an den LCD-Fernseher.


Bei dieser Methode habt ihr folgende Vorteile:

  • Im Hintergrund laufende Programme laufen ganz normal weiter.
  • Beim Starten von XBMC startet dieser automatisch auf eurem TV, auf euren Desktop könnt ihr zugreifen wenn ihr mit der Tastenkombination STRG+ALT+F7 wieder auf die erste X-Session wechselt. (zurück zu XBMC mit STRG+ALT+F8)
  • VDPAU(Nvidia) und Automatic Refresh Rate Switching funktioniert problemlos.
  • Keine Performanceprobleme und kein Tearing, da Compositing deaktiviert ist.




Vorweg, solltet ihr erstmal XBMC installieren. Wie das geht hab ich hier beschrieben. Anschließend sollte noch das Paket xbmc-standalone installiert werden. xbmc-standalone hat den Vorteil, dass wenn XBMC doch mal abstürzt, es automatisch neu gestartet wird.

Ich habe diese Methode nur mit einer Nvidia Grafikkarte getestet. Keine Garantie, dass es unter ATI oder Intel ebenfalls so läuft.

Vorbereitung:
Ihr braucht eine zweite xorg.conf (bei mir heißt sie xorg.tv). Dieses xorg config File, sollte euren TV als einziges Gerät anzeigen und noch einige Optionen beeinhalten.
Bei mir schaut die folgendermaßen aus. Wenn ihr ebenfalls eine NVIDIA Grafikkarte habt und einen 1080p fähigen TV, könnt ihr diese eigentlich 1:1 übernehmen. Die Datei sollte unter /etc/X11/xorg.TV abgespeichert werden.



Um eine passende xorg.conf zu generieren (Nvidia), könnt ihr folgendes Skript verwenden.



Anschließend solltet ihr unter Section "Screen" bei Modes, noch die unterstützen Modi festlegen, damit XBMC dann automatisch zwischen verschiedenen Frequenzen switchen kann. Bei mir ist das jeweils 1080p mit 60Hz, 50Hz und 24Hz (für 24p Content).

Bei ATI und Intel Nutzer wird das vermutlich etwas anders anschauen, wie genau kann ich leider nicht sagen.

XBMC Start Skripte:
Wenn die passende xorg.TV Config in /etc/X11 liegt, kann es weitergehen.
Jetzt erstellen wir ein Skript, dass beim Ausführen automatisch eine zweite X-Session mit der xorg.TV Config öffnet und da drin XBMC startet. Das Skript könnt ihr z.B. startXBMC.sh nennen.



Macht das Skript durch ein sudo chmod +x startXBMC.sh noch lauffähig.

Weitere Wichtige Einstellungen:
Wenn ihr das Skript startet, wird es noch nicht laufen, da ihr als normaler Nutzer keine Berechtigungen habt, eine zweite X-Session zu starten (nur als Root).
Um dieses Problem zu umgehen geben wir in das Terminal folgendes ein:
sudo dpkg-reconfigure x11-common

Bei der nachfolgenden Abfrage stellen wir auf Jeder.

Nun müssen wir euren User noch in die Audio und Video Gruppe hinzufügen, da sonst XBMC beim starten von Musik oder Videos abstürzt.

Das machen wir jeweils durch die Eingabe von:
sudo adduser %username% audio
sudo adduser %username% video

%username% ersetzt ihr natürlich durch euren Usernamen (ohne %).

Anschließend solltet ihr euch einmal neu anmelden.

Finish:
Jetzt sollte beim Aufruf der vorher erzeugten Shell Skriptes, XBMC auf eurem TV starten.

Übrigens funktioniert das in der Weise natürlich nicht nur mit XBMC sonder mit jedem x-beliebigem Programm oder Spiel.

Bei Problemen, Fragen und Anmerkungen bitte einen Kommentar posten damit ich helfen kann.

    XBMC ist eine Open Source MediaCenter Software die unter Linux, Windows, Mac und neuerdings auch iOS (iPhone,iPad, AppleTV) läuft.


    XBMC ermöglicht es Filme, TvSerien, Musik und andere Videos übersichtlich zu verwalten und komfortabel abzuspielen.


    Ich persönlich nutze XBMC schon seit etlichen Jahren und muss sagen, es ist einfach die perfekte Lösung für jeden HTPC. Es bietet ein geniales UI das durch etliche Skins verändert werden kann und seit der letzten Version ist es auch möglich eine Menge Addons einzubinden, die es z.B. ermöglichen auf verschiedenen Online Videoplatformen Videos anzuschauen. Dabei lässt sich das komplette Programm über eine Fernbedienung oder Android/iOS App steuern.

    Das einzige Kontra, ist die fehlende Unterstützung für LiveTV (DVB).

    Installation unter Natty und Oneiric:
    Da das offizielle XBMC PPA seit längerer Zeit nicht mehr gepflegt worden ist und nur Support bis Maverick bietet ist ein anderer Weg zu wählen.

    Glücklicherweise hat gestern ein anderer User ein neues PPA erstellt, dass nun auch Builds für Ubuntu 11.04 und 11.10 bietet.

    Um XBMC zu installieren, geht ihr also folgendermaßen vor:

    Terminal öffnen und folgendermaßen vorgehen:
    sudo apt-add-repository ppa:nathan-renniewaldock/xbmc-stable
    die folgende Abfrage mit Enter bestätigen, anschließend nacheinander:
    sudo apt-get update
    sudo apt-get install xbmc

    Nun sollte XBMC installiert sein. Das Programm findet ihr unter Multimedia->XBMC



    Nachdem die Empathy-Version in Ubuntu 11.10 – Oneiric Ocelot – immer noch nicht mit Aliasen umgehen kann, kommt sie für mich als Standardmessenger nicht in Frage. Falls ihr damit auch Probleme habt, hier eine kurze Anleitung wie Ihr Pidgin als Standardclient verwendet.
     
     

    Installieren könnt Ihr Pidgin ganz einfach aus den Ubuntu Paketquellen mit:
       sudo apt-get install pidgin
     
    Nun können die Konten in Pidgin eingerichtet werden.
     
    Ist Pidgin installiert und eingerichtet kann Empathy mit folgendem Befehl deinstalliert werden:
       sudo apt-get remove --purge empathy

     
    Anschließend den Rechner neu starten oder den Benutzer neu anmelden. Klickt man jetzt auf das Briefsymbol in der Statusleiste die Verfügbarkeit einstellen.
     
    Anleitung wurde mit Ubuntu 11.10 erstellt
     
    Fazit: Also für mich kommt Empathy nicht in Frage, da es mit Aliasen nicht umgehen kann. Da bleib ich doch lieber beim altbewährten Pidgin, auch wenn der nicht so schön aussieht.
     
    Klar soweit?
    Euer RSB

    Ich bin gerade dabei, den Rechner neu aufzusetzen mit Ubuntu 11.10 und ich habe mich für GNOME-Shell entschieden. Dort fühle ich mich irgendwie wohler als bei Unity. Richtig begründen kann ich es nicht und ich würde auch nicht behaupten, dass Unity schlechter ist. Dies nur, um eventuellen Diskussionen vorzubeugen.

    Nun habe ich also GNOME-Shell laufen und kopiere gerade im Nautilus mein Backup des Home-Verzeichnisses zurück. Das sind eine Menge Dateien und dauert auch dementsprechend lange. Nun habe ich aber festgestellt, dass der Dateioperationen-Dialog verschwindet und auch nicht ohne weiteres angezeigt werden kann, wenn Nautilus maximiert ist und ich zum Beispiel einen neuen Reiter im Nautilus öffne oder auch nur einfach mal die Arbeitsfläche wechsel. AUch über ein Rechtsklick auf dem Eintrag im Starter wird mir der Dialog nicht zum auswählen angeboten.

    Wenn Nautilus in einem kleineren Fenster ist, dann kann ich den Dialog auch ansehen, verschieben und verfolgen, wie weit das kopieren ist. Ist der Nautilus maximiert kann ich das nicht. Ich finde keine Möglichkeit diesen kleinen Dialog nach vorne zu holen. Erst wenn ich die GNOME-Shell mal neustarte finde ich den Dialog wieder da, wo er sein solte.

    Nun stellt sich mir die Frage: Ist es ein Bug oder ein Feature in der GNOME-Shell? ;-)

    Nachdem Ubuntu 11.10 nun gestern erschienen ist, wollte ich natürlich ein Update machen. Also Laptop hochgefahren die letzten 11.04 Updates installiert und siehe da, das Update auf 11.10 Alias Oneric Ocelot wird angeboten. Download ging recht schnell und die Aktualisierung wie gewohnt knapp 100 Minuten. Von daher kann man sich nicht beschweren.

     

    Gegen Ende der Aktualisierung kommen auf einmal kryptische Fehlermeldungen und schlussendlich eine Meldung, die Sinngemäß ungefähr folgendes besagt “Das System ist in der aktuellen Version nicht betriebsbereit, bitte starten sie den Rechner neu”.
     
    Gut ein Neustart hat noch nie geschadet, der Rechner startet neu, Grub erscheint und dann nur noch ein schwarzer Bildschirm. Nach 5 Minuten habe ich mich entschlossen den Vorgang abzubrechen. Ein erneuter Versuch brachte das gleiche Ergebnis, genauso wie die Rescue Konsole.
     
    Da ist wohl guter Rat teuer, also Live CD gesucht und Sytem gestartet. Wollen doch mal nachsehen ob wir herausfinden was dem Rechner fehlt. Nun kommt das Seltsame, es sind auf der Partition so gut wie keine Daten vorhanden. Warum und wie so was zustande kommt ist mir schleierhaft.
     
    Nun gut bevor ich noch mehr Zeit verschwende wird halt neu installiert. Nachdem das System seit Jaunty Jackalope (Ubuntu 9.04) nicht mehr neu installiert wurde, kann das bestimmt nicht schaden.
     
    Also fix auf die Seite und Download gestartet. Anscheinend herrscht da aber grad ein großer Andrang, denn die Downloadzeit beträgt 2 Tage 14 Stunden. Gut dann laden wir das aktuelle Iso halt per wget herunter. Hier beträgt die Downloadzeit zwar auch 30 Minuten aber immer noch besser als 2,5 Tage.
     
    Da ich grad keinen Rohling zur Hand habe, hab ich mich entschlossen ein Startmedium auf USB Stick zur erstellen. Hierfür hab ich einen neuen 8 GB USB-Stick verwendet und formatiert. Danach wollte ich das Startmedium erstellen doch Ubuntu behauptet steif und fest, dass nicht genügend Speicher vorhanden ist. Dann habe ich den Datenträger gelöscht was am Ergebnis jedoch nichts geändert hat. Das ganze hab ich noch 2 mal wiederholt bis endlich erkannt wurde das der Speicherstick leer ist und das Startmedium erstellt werden konnte.
     
    Nun konnte ich endlich von USB Booten und die Installation starten. Diese lief dann auch erstaunlicherweise zügig in ca. 20 Minuten durch. Das einzig erwähnenswerte hierbei war, dass es mir nicht möglich war, mich mit einem offenen W-LAN Netzwerk zu verbinden.
     
    Bis jetzt sind auch keine weiteren Fehler aufgetaucht. Also werde ich mich nun an die Installation der von mir benötigten Software machen.
     
    Der erste Punkt was die Installation der proprietären Treiber für meine ATI Grafikkarte und hier ging der Spaß munter weiter. Die Treiber konnten nicht installiert werden, nähere Informationen finden Sie im Logfile. Gut schauen wir ins Log mit dem Lieblingseditor vim. Stimmt vim gehört ja nicht mehr zum Standardrepository also zuerst noch das installiert. Und nun wollen wir uns mal das Log anschauen. Lustigerweise lauten die ersten Logfile Einträge, dass der Nvidia Grafiktreiber nicht verfügbar wäre und das er auf die Defaulteinstellungen zurückkehrt. Ich war etwas perplex da mein Notebook ja immer noch eine ATI Grafikkarte hat. Aber etwas weiter unten im Log fand ich dann das Problem. Es fehlt noch das Modul fglrx.
     
    Nachdem ich vor längerer Zeit von Empathy wieder zurück zu Pidgin bin, weil das mit dem anzeigen der Aliase nur bedingt funktioniert, wollte ich das ganze unter 11.10 nochmal probieren. ICQ-Konto eingerichtet und siehe da, die haben es immer noch nicht geschafft das Alias-Problem zu lösen. Das heißt für mich, ich bleib weiterhin bei Pidgin.
     
    Fazit: Also ich hab noch nie so ein holpriges Upgrade erlebt. Aber um alle zu beruhigen auf 2 anderen Systemen lief das Upgrade ohne Probleme durch.
     
    Klar soweit?
    Gruß RSB

    14. Oktober 2011

    Unter Ubuntus neuster Version Oneiric Ocelot kann man nun die Gnome-Shell einfach ausprobieren und installieren, ohne sich sein aktuelles Unity-System zu zerschießen (wie es bei Natty Narwhal der Fall war).

    Alle erforderlichen Pakete sind im Ubuntu Software-Center bereits hinterlegt und können mit folgenden Befehlen installiert werden:

    sudo apt-get install gnome-shell gnome-themes-standard
    sudo apt-get install gnome-sushi gnome-contacts gnome-tweak-tool
    

    Nach der Installation dieser Pakete hat man auch das Gnome-Tweak Tool installiert, mit welchem man sein System leichter optisch anpassen kann. Iconset, Theme und die im System verwendeten Schriftarten können hier umgeswitched werden.

    Gnome-Sushi … komischer Name! Gnome-Sushi ist ein File-Previewer für Nautilus. So drückt man bei einer markierten Datei einfach die Leertaste einmal und kriegt nun eine Vorschau der Datei zu Gesicht. Unterstützt werden Bilder, Videos, Textdateien und Audiodateien. Erinnert mich sehr an Gloobus-Preview, gefällt mir gut.

    Das letzte Programm Gnome-Contacts ist eine einfache Kontaktverwaltung für die Gnome-Shell (mit Google Contacts Integration). Außerdem werden alle Kontakte von Empathy übernommen und automatisch eingetragen.

    Optisch gesehen gefällt mir die Gnome-Shell sehr gut und es gibt auch schon sehr schöne, brauchbare Gnome-Shell Themes. Ich bin mit Unity eigentlich sehr zufrieden, trotzdem möchte ich mal die Gnome-Shell testen. Vielleicht werde ich ja positiv überrascht, den so unterschiedlich sind ja Unity und die Gnome-Shell gar nicht.

    21 Kommentare | Kommentar schreiben | Gnome-Shell unter Ubuntu 11.10 einfach installieren

    Das wohl beliebteste Iconset in der Linuxwelt Faenza wurde upgedated und hat nun einige neue Icons im Paket. So wurden die Icons an Gnome 3.2 und an die Unityoberfläche angepasst, damit alles einheitlich im Faenza-Stil glänzt.

    Neue App-Icons: Gnome Documents, Gnome Contacts, Gnome Online Accounts, Gnome Freecell, Clementine, Onboard, Farbeinstellungen, Screenruler, Scribes, Steam, Tracker, Wunderlist, Xterm
    Neue Device-Icons: Tablet, Network wired, Network wireless, VPN, System Harddisk
    Neu angepasste Icons: Baobab, Gparted, Time-Admin, Gconf-Editor und alle Ordner.
    Emblems: Die Emblems für Dateien und Ordner sind nun alle einheitlich gestaltet.

    Neben diesen Neuerungen gibt es außerdem neue Status-Icons und zwei neue Themes. Faenza-Ambiance und Faenza-Radiance, welche sich perfekt in Ubuntu 11.10 integrieren.

    Installation:

    sudo add-apt-repository ppa:tiheum/equinox
    sudo apt-get update && sudo apt-get install faenza-icon-theme
    sudo apt-get install gnome-tweak-tool

    oder ihr installiert Faenza manuell via Deviantart. Um die Icons in Ubuntu Oneiric Ocelot (11.10) zu wechseln, müsst ihr das Gnome-Tweak-Tool installieren und die gewünschten Iconsets nach /usr/share/icons kopieren, damit sie im Gnome-Tweak-Tool im DropDown-Menü erscheinen. Installiert man das Iconset via PPA, so werden die Icons automatisch in den richtigen Pfad installiert.

    3 Kommentare | Kommentar schreiben | Faenza Icon Set 1.1 für Ubuntu Oneiric Ocelot & Gnome 3

    Nach dem Update auf Oneiric Ocelot (in meinem Fall die Kubuntuversion) war auf einmal Netbeans verschwunden. Natürlich stellt sich die Frage warum es plötzlich entfernt wurde. Aufschluss darüber gibt der Ubuntu Bug 822753 welcher unter https://bugs.launchpad.net/ubuntu/+source/netbeans/+bug/822753 zu finden ist:

    Could you please remove both source netbeans package and all binary packages from Ubuntu Oneiric universe repository.
    The current version of NetBeans IDE in the packages is out of date and there is no enough resources to support and update the packages. So it makes using NetBeans IDE buggy and unreliable. The users are strongly recommended to download latest NetBeans versions from netbeans.org.

    Sprich die Netbeansversion welche in Universe vorhanden ist, war zu fehlerbehaftet und da niemand die Zeit hatte sie upzudaten, sollte sie rausfliegen, was ja nun auch geschehen ist. Nun gut, nun muss man sich Netbeans halt unter http://netbeans.org/ direkt herunterladen.

    Weitere Informationen gibt es unter:
    http://wiki.ubuntuusers.de/Netbeans

    Auch dieses Jahr gibt es ja wieder eine Ubucon welche ich natürlich wieder besuchen werden, auch wenn ich schon seit einiger Zeit kein Ubuntu mehr verwende. Wie auch letztes Jahr ist die Ubucon auch dieses Jahr in Leipzig an der Universität.

    Übernachten werde ich zusammen mit meiner bezaubernden Freundin wieder im MotelOne, welches nur ca. 5 Minuten Fußweg von der Uni und damit der Ubucon entfernt ist.

    Dieses Jahr stehen folgende Vorträge auf der Roadmap:

    • Samstag 09:00: Taskwarrior - Aufgabenverwaltung für die Shell
    • Samstag 14:00: Fragestunde für Serverthemen
    • Samstag 18:00: Serverkrams von Ubuntuusers & Co
    • Sonntag 10:00: LaTeX - Tipps & Tricks
    Serverkrams ... ist dabei kein öffentlicher Vortrag, sondern eine interne Diskussion des Adminteams. Durch den ungünstigen Termin kann ich leider nicht am Keysigning Teilnehmen, ich nehme aber trotzdem ein paar Zettel mit meiner Key-ID mit, auch für CACert vergebe ich wieder Punkte wenn sich jemand bei mir meldet.

    Taskwarrior verwende ich schon seit längerer Zeit, aber man lernt ja bekanntlich nie aus, und vielleicht zeigt Dirk ja noch ein paar Tricks die ich so noch nicht kannte.

    Auch dieses Jahr gibt es ja wieder eine Ubucon welche ich natürlich wieder besuchen werden, auch wenn ich schon seit einiger Zeit kein Ubuntu mehr verwende. Wie auch letztes Jahr ist die Ubucon auch dieses Jahr in Leipzig an der Universität.

    Übernachten werde ich zusammen mit meiner bezaubernden Freundin wieder im MotelOne, welches nur ca. 5 Minuten Fußweg von der Uni und damit der Ubucon entfernt ist.

    Dieses Jahr stehen folgende Vorträge auf der Roadmap:

    • Samstag 09:00: Taskwarrior - Aufgabenverwaltung für die Shell
    • Samstag 14:00: Fragestunde für Serverthemen
    • Samstag 18:00: Serverkrams von Ubuntuusers & Co
    • Sonntag 10:00: LaTeX - Tipps & Tricks
    Serverkrams ... ist dabei kein öffentlicher Vortrag, sondern eine interne Diskussion des Adminteams. Durch den ungünstigen Termin kann ich leider nicht am Keysigning Teilnehmen, ich nehme aber trotzdem ein paar Zettel mit meiner Key-ID mit, auch für CACert vergebe ich wieder Punkte wenn sich jemand bei mir meldet.

    Taskwarrior verwende ich schon seit längerer Zeit, aber man lernt ja bekanntlich nie aus, und vielleicht zeigt Dirk ja noch ein paar Tricks die ich so noch nicht kannte.

    13. Oktober 2011

    Bei der Aktualisierung meiner Programme aufgrund der zuletzt bekannt gewordenen Sicherheitslücken in dovecot, openssl usw. war bei mir kurzzeitig die Mailkonfiguration zerschossen. In der Folge konnten einige E-Mails nicht zugestellt werden und deshalb hat exim versucht, die Ursprungsnachricht mit einer Fehlermeldung an den Absender zu schicken. Da das auch nicht funktioniert hat, wurden diese als Nachrichten als frozen im Mailqueue markiert. Diese E-Mails wollte ich nun an den ursprünglichen Empfänger zustellen. Da es glücklicherweise nicht so viele waren, habe ich das kurz folgendermaßen per Hand bewerkstelligt:
    Die IDs der frozen messages in Exims Queue auflisten mit

    exiqgrep -z -i

    Dann die Nachricht der entsprechenden ID anzeigen mit

    exim -Mvb ID

    Falls es sich um eine Spamnachricht handelt, diese direkt löschen mit

    exim -Mrm ID

    ansonsten die Ausgabe in eine Datei umleiten mit

    exim -Mvb ID > mailcontent

    Dann die Datei mailcontent editieren und die oberen Zeilen bis zum Beginn der ursprünglichen Mail löschen. Der “To:”-header darf nur die Mailaddresse des Empfängers enthalten, an den Exim die Mail eigentlich hätte zustellen sollen. Beispielsweise wird aus

    1REOlj-0006ED-VH-D
    This message was created automatically by mail delivery software.
     
    A message that you sent could not be delivered to one or more of its
    recipients. This is a permanent error. The following address(es) failed:
     
      xxx@mydomain
        local delivery failed
     
    ------ This is a copy of the message, including all the headers. ------
     
    Return-path: <someone@senderdomain>
    Received: from abc.com ([aaa.bbb.ccc.ddd])
            by mymailserver with esmtp (Exim 4.76)
            (envelope-from <someone@senderdomain>)
    To: someone@somedomain; anotherone@anotherdomain; xxx@mydomain
    ...

    dann

    Return-path: <someone@senderdomain>
    Received: from xxx.de ([129.187.xxx.yyy])
            by mymailserver with esmtp (Exim 4.76)
            (envelope-from <someone@senderdomain>)
    To: xxx@mydomain
    ...

    Sobald die Änderungen erfolgt sind, kann die Mail mit einem

    cat mailcontent | exim -t
    exim -Mrm ID

    erneut versendet und die entsprechende frozen E-Mail aus dem Queue gelöscht werden. Diese Schritte müssen für alle Mails durchgeführt werden.

      Server room

      Serverraum

      Es gibt sie wie Sand am Meer, vielleicht sogar noch häufiger: vServer. Ein Einsteiger berichtet über die Erfahrungen, die er in den ersten Wochen mit seinem gemieteten vServer gemacht hat.

      Es war von langer Hand geplant: Der Vertrag mit dem Webhoster wird bald auslaufen und sollte planmäßig nicht verlängert werden. Statt dem normalen Webspace mit einer MySQL-Datenbank und E-Mail Accounts soll diesmal etwas mit Hand und Fuß her: ein vServer, der nahezu vollkommene Unabhängigkeit garantiert. Wir selbst sind Chef, niemand kann uns dazwischen gehen, wir können tun und lassen was wir wollen und Serverdienste laufen lassen sowieso. Immerhin gibt es ja reichlich Beispiele dafür, außerdem gibt es hunderte Pakete für E-Mail- und Jabberserver. Das kann eigentlich gar nicht so schwierig sein. Und mit der Konsole kommen wir auch schon sehr gut zurecht. Außerdem ist WordPress für unser Blog ja auch schnell installiert. Doch ganz so spielend leicht, wie wir uns das gedacht haben, war der Start in den „Profibereich“ des Webhostings nun auch wieder nicht.

      Die Vorbereitungen

      Nachdem mein Freund und ich uns dazu entschieden haben, dass wir den bestehenden Vertrag mit unserem damaligen Webhoster auslaufen lassen wollen, stand die erste große Frage im Raum: Gleicher Service bei anderem Anbieter, einen vServer oder gar einen Root Server? Letzteres schied relativ schnell aus: Unser geplantes Budget würde dadurch um ein vielfaches überstiegen. Ersteres hingegen auch, denn wir wollten endlich von den „Standardservices“ abkommen und was professionelles betreiben. Also musste ein vServer (virtueller Server, mehrere vServer teilen sich einen Kernel) her. Doch damit ging die Suche erst richtig los! Anbieter für vServer gibt es quasi wie Buchläden: an jeder Ecke ist einer. Die Preise reichen von „viel zu teuer“ bis „da muss irgendwo ein Haken sein“. Bei den vielen Hilferufen im Internet zu ebendieser Frage stand ein Tipp immer relativ weit oben: webhostlist.de. Hier sind entliche Anbieter eingetragen und lassen sich miteinander vergleichen. Doch so oft zu dieser Seite geraten wurde, so oft wurde auch davor gewarnt: nicht objektiv, Support werde nicht berücksichtigt, die Liste sei nicht vollständig usw.. Letztendlich haben wir unseren Anbieter aus einer Mischung aus Empfehlungen, Werbung, Vergleichen und Bauchgefühl ausgesucht.

      Worin die Unterschiede bestehen

      Ganz abgesehen von der Hardware, die vermutlich der größte und wichtigste Unterschied zwischen den Anbietern ausmacht, ist es vor allem der Support, der den guten vom schlechten Anbieter trennt. Gibt es eine Hotline, ist sie erreichbar, gibt es eine E-Mail Adresse oder nur ein Webformular für Anfragen etc.. Ebenso wichtig ist die Erreichbarkeit der Server. Seriöse Anbieter geben diese, meistens in Prozent, an.

      Erste Schritte

      Die Bestellung zieht sich nach den wenigen Minuten Antrag formulieren dann oft doch über mehrere Stunden, da die beantragten Services natürlich erst bereitgestellt werden müssen. Nach geschätzten 5 Stunden war unser vServer bereit zur Einrichtung: Im Webinterface des Anbieters anmelden, kurzen Überblick verschaffen, was es alles so gibt, und dann an die Einrichtung des vServers machen. Zunächst die Installation des Betriebssystems: Debian 4.0 minimal (damals war das noch voll OK, mittlerweile ist Debian 4.0 ausgelaufen. Um das Update mussten wir uns später selber kümmern). Wir hatten noch andere Linuxdistributionen zur Auswahl, wollten aber unbedingt Debian haben. Neben der Minimalinstallation gab es noch „PLESK“ und „LAME“ zur Wahl, mit welchem wir rein gar keine Erfahrung hatten. In Rücksprache mit Leuten, die ich zweifellos als „Profis“ bezeichne, ließen wir die beiden letztgenannten Alternativen außen vor.

      Nach der Installation meldeten wir uns via SSH das erste mal auf dem Server an. Die notwendigen Zugangsdaten inklusive Passwort waren im Adminbereich der Webseite unseres Anbieters zu finden.

      Sicherheit ist ein Prozess, kein Status!

      Das Thema Sicherheit ist natürlich immer aktuell. Mit der Miete eines vServers ist dieses Thema aber auf ein ganz anderes Level gerückt. Mit einer 100Mbit Anbindung ans Internet und 25 GB Speicherplatz ist das Absichern vor fremden Zugriffen um ein vielfaches wichtiger. vServer, sehr oft in Besitz von blutigen Anfängern, sind oft Ziele von Hackerangriffen, insbesondere von Kriminellen, die die schnelle Internetverbindung des Servers für ihre Zwecke nutzen wollen. Es kommt sehr oft vor, dass sich Mieter mit dieser Gefahr erst dann konfrontiert sehen, wenn der Serveranbieter eine Monatsrechnung für Extratraffic stellt. Kriminelle nutzen die oft mageren Sicherheitsvorkehrungen aus, um meist illegale Materialien (Kinofilme, Musik, kinderpornografisches Material etc.) auf den Server zu legen, damit diese eine schnelle Verbreitung finden. 100Mbit, da ist schon was drin…

      Diesen Vortrag durfte ich mir von den oben genannten Profis schon nahezu spöttisch anhören. Sehr oft wurde man auf den Artikel von burnachurch verwiesen, in dem dieses Thema angesprochen wird. Darum ist uns bewusst geworden, dass unser vServer nicht als Fang von Kriminellen herhalten soll. Somit begannen wir sofort mit den ersten Schritten für einen sicheren vServer:

      Gleich nach dem Anmelden über den Benutzer root erstellten wir über SSH eine neue Gruppe sowie zwei neue Benutzer. Beide Benutzer wurden dieser Gruppe angefügt. Daraufhin installierte ich sudo und konfigurierte es so, dass ausschließlich Benutzer dieser Gruppe es benutzen dürfen. Als dies erledigt war, schloss ich die erste und einzige Sitzung des Benutzers root, meldete mich mit einem der Benutzernamen an und konfigurierte SSH nun so, dass wieder nur Benutzer aus der Gruppe durchgelassen werden. Root ist damit ausgesperrt.

      Auf diesem Niveau wurden weitere Sicherheitsvorkehrungen vorgenommen, bis es endlich an das Installieren der wichtigsten Sachen ging, die auf einem Server laufen sollten bzw. die wir für unsere Vorstellungen von vServer benötigen. Doch was viel wichtiger war, ist dass das Betriebssystem auf dem aktuellsten Stand ist. Da wir den vServer kurz vor Ende des Supports für Debian Etch erwarben, mussten wir auf schnellstem Wege auf die neue Version, Debian Lenny, kommen. Da wir noch keine Daten auf dem Server gespeichert und keine schwierig einzurichtende Programme installiert hatten, konnten wir ohne Backup ein Upgrade vornehmen. Unter fachmännischer Betreuung über IRC war das auch gar kein Problem. Schließlich hatten wir Debian Lenny installiert und konnten das erste mal das System updaten:

      sudo apt-get upgrade

      Jetzt kann ich es zugeben: obwohl ich wirklich SEHR oft auf das Thema angesprochen wurde und mir die Dringlichkeit hervorgehoben wurde, habe ich das Thema Sicherheit wirklich unterschätzt. Ich dachte es ist ausreichend, wenn man regelmäßig seine Updates installiert und am Anfang von jeder Installation die Konfiguration gewissenhaft macht. Doch das ist nicht so! Sicherheit ist ein Prozess, der niemals aufhört. Man kann nicht einfach zwei Wochen nicht auf den Server verzichten und ihn sich selbst überlassen. Man muss ständig die Serverdienste überwachen, Auffälligkeiten bemerken, Aktivitäten, die man nicht selbst hervorgerufen hat überprüfen, die Log Dateien analysieren etc.. Es ist ein Fass ohne Boden, auf das wir schlichtweg nicht vorbereitet waren.

      Basics installieren

      Die Hauptaufgabe unseres Server sollte darin liegen, unser Blog zu hosten. Für das Betreiben eines WordPressblogs sind viele Pakete notwendig, die grundsätzlich auf einem Webserver installiert sein müssen. Zunächst ist dabei Apache zu führen, der unser Webserver werden sollte. Wenn man sich per SSH auf dem Server angemeldet hat, ist die Handhabung wie die Bedienung bei einem lokalen PC über die Konsole. Da Ubuntu – das Betriebssystem unserer Heimcomputer – von Debian abstammt, kamen wir mit der Bedienung von Debian sehr schnell zurecht.

      Außerdem mussten natürlich noch PHP und MySQL installiert werden. Ohne die ist es nicht so einfach möglich, WordPress laufen zu lassen ;) Als diese Pakete dann fertig installiert und eingerichtet worden waren (wir haben schnell begriffen, dass man nicht auf die trial and error Methode an Apache rumspielen sollte, denn diese wirklich mächtige Paket lässt sich sehr schnell kaputt-konfigurieren). Also haben wir uns erstmal ein Fachbuch zugelegt und uns ein Tipps daraus ausgesucht, die wir umgesetzt haben.

      Nachdem Apache gut lief, WordPress installiert war, die alten Artikel importiert worden, und der alte Vertrag kurz vorm Auslaufen war, kam die nächste Herausforderung: die Domain auf den neuen Server umleiten. Das Webinterface unseres neuen Abieters erlaubte es uns, den DNS Eintrag auf die neue IP umzustellen. Der Domainumzug lief um einiges einfacher als erwartet. Mit Apache konnten wir dann sowohl die Haupt- als auch die Subdomains auf die richtigen Ordner umleiten. Dadurch konnten wir quasi „über Nacht“ das alte Webspaceangebot verlassen.

      Apache und andere Indianer

      Wir hatten so gut wie keine Erfahrung mit Apache, denn welcher normale User hat das auf seinem Heimrechner schon installiert? Im Nachhinein vertrete ich die Meinung, dass eine ausführliche Trainingseinheit in der VirtualBox auf dem Heimcomputer sehr hilfreich gewesen wäre, so dass man schon frühzeitig sieht, wie man seine Serverdienste in den Griff bekommt. Das ist ja etwa so, als würde man auf der Autobahn bei 180 km/h anfangen, seine Spiegel zu richten und das Lenkrad einzustellen. Dennoch: Apache bekamen wir für unsere Verhältnisse relativ schnell in den Griff.

      Natürlich haben wir außer Apache nach einiger Zeit noch weitere Dienste installiert. Wir wollten ja Profis sein und experimentierten viel mit weiteren Diensten: E-Mail stand ganz oben auf der Prioritätenliste, dann natürlich noch Jabber (was gibt es cooleres als einen eigenen Jabber-Server??) und wenn man schon dabei ist: warum nicht gleich einen Gobby-Server? Ihr seht schon: für uns galt der vServer als ein Spielzeug, an dem wir uns so richtig austoben wollten. Allerdings haben wir die Sicherheitspflege unterschätzt.

      Was dann passierte

      Es kam wie es kommen musste. Ausgerechnet das, was wir unbedingt vermeiden wollten (denn wir dachten wir seien klüger als der Junge von burnachurch), ist eingetreten. Ein Unbefugter hat es geschafft, sich Zutritt auf unseren vServer zu verschaffen. Ohne dass wir es merkten, wurde ein IRC-Bot auf unserem System installiert, der irgendeinen IRC-Channel zugespamt hat. Unserem Anbieter ist die hohe Aktivität zu Ohren gekommen und hat unseren vServer offline genommen (das einzig vernünftige, was er tun konnte). Wir haben unsere Daten sichern können, und da wir nicht wussten wie, haben wir gar nicht erst versucht, diesem Angriff auf den Grund zu gehen. Dann hat das Spiel von vorne begonnen, wieder alles installieren, sichern, einrichten und der ganze Käse. Diesmal wollten wir aber vorsichtig sein und haben nicht jeden Serverdienst gleich aktiviert ohne zu recherchieren was man einstellen muss.

      Diesmal haben wir länger durchgehalten als beim ersten mal, doch schon bald kam der nächste Angriff. Irgendjemandem ist es gelungen, unser Apache so zu konfigurieren, dass etwa jeder zweite Besucher, der über Google zu uns kam, auf eine Malwareseite weiterzuleiten (es gab bei heise online mal einen Artikel zu einer ganzen Hack-Serie mit diesen Symptomen, das geschah gerade zur gleichen Zeit wie bei uns. Leider finde ich ihn nicht mehr!). Wir haben auch dieses Problem relativ spät bemerkt und uns daraufhin entschieden, das Projekt vServer bis auf weiteres fallen zu lassen.

      Wer sich so etwas (nicht) antun sollte

      Zugegeben, es ist sehr verlockend, sich einen vServer zu mieten: er ist meist schneller als normaler Webspace, durchaus bezahlbar und man schreit quasi vor Unabhängigkeit. Doch meine Erfahrungen zeigen: lasst lieber die Finger davon, wenn ihr nicht wisst was auf euch zukommt. Ein bisschen Übung mit dem Terminal auf dem Heimcomputer reicht bei Weiten nicht aus, um die Aufgaben auf dem vServer zu bewerkstelligen. Die Bedienung des Terminals ist so ziemlich das einfachste, was es an diesem Projekt gibt.

      Wenn euer Hauptanliegen darin liegt, dass ihr ein Blog betreibt, das mit viel Speicherplatz auf einem schnellen Server liegt, dann gebt bitte mehr Geld bei der Miete eines Webspaces aus, bevor ihr auf die hirnrissige Idee kommt, einen vServer zu übernehmen. Ihr habt enorm viel Verantwortung dafür, und für denn Fall, dass eine Straftat darüber begangen wird, steht nicht der Hacker, sondern ihr dafür gerade. Ein vServer ist kein Spielzeug!

      Warum das ganze hier?

      Unser “Scheitern” soll die, die mit dem gleichen Gedanken spielen, zum nochmaligen Nachdenken anregen. Seid ihr euch wirklich sicher, dass ihr diese Verantwortung tragen könnt? Wisst ihr WIRKLICH, was das bedeutet? Man hört nämlich relativ häufig den gut gemeinten Rat, dass man auf einen vServer umsteigen soll, weil dort “alles besser” ist. Wir möchten, dass ihr aus unserem Fehler lernt.

      Soeben veröffentlichte Canonical die Finale Version von Ubuntu 11.10 namens Oneiric Ocelot.


      Den Download gibt es hier:
      DOWNLOAD

      In diesem ersten Post möchte ich das neue Release vorstellen und auf die Neuerungen eingehen.
      In einem späterem Post berichte ich dann über meine Erfahrungen mit dem neuem Ubuntu und ob es wieder meine Standarddistribution wird. (momentan nutze ich Xubuntu 11.04)

      Oneiric bietet auf Systemebene den aktuellen Kernel 3.0 (auch wenn 3.1 kurz vor der Tür steht) und XServer in Version 1.10.04.

      Für Nutzer interessanter sind die verwendeten Desktopumgebung.
      Standardmäßig setzt Ubuntu wie auch schon im Vorgänger Natty Narwahl auf Unity, allerdings einer neuen Version 4.22.0 das auf Gnome 3.20 aufsetzt.
      Die großen alternativen Desktopumgebungen lassen sich wie immer nachinstallieren.
      • KDE gibt es in Version 4.7.2
      • Gnome-Shell (die Standard Shell von Gnome 3.20) gibt es in Version 3.20
      • XFCE kommt wie auch in 11.04 in Version 4.8
      In der Standardinstallation kommen neben vielen zu Gnome gehörenden Tools wie Nautilus, Empathy und das Terminal in Version 3.20, noch unter anderem folgendes dazu:
      • Firefox 7
      • Thunderbird 7, dass Evolution ersetzt
      • LibreOffice 3.4.3
      • Banshee 2.20
      Wie immer lassen sich tausende von Programmen aus dem neuen Ubuntu Software Center nachinstallieren.
      Nun schauen wir uns das System mal genauer an.

      Installation:
      Beim Booten von der LiveCD bietet Ubuntu nach kurzer Zeit die Auswahl, ob man das System testen oder installieren will.

      Wenn man sich im Live System befindet ist es ebenfalls jederzeit möglich das System auf die Festplatte zu installieren. Dazu wählt man auf dem Desktop einfach das Symbol "Ubuntu installieren" aus.



      Wie bereits bei früheren Versionen, kann man direkt im Installer auswählen ob man Drittanbieter Software installieren will (z.B. Adobe Flash, das erstmals auch in einer 64Bit Version vorliegt.) und ob man sofort Updates runterladen will. Für letzteres muss eine Internetverbindung bestehen. Beides lässt sich aber natürlich auch nachträglich durchführen.

      Die Installation beginnt sofort nach dem man eine passende Partition für Ubuntu ausgewählt hat. Währenddessen muss man allerdings noch ein paar Informationen, wie die Zeitzone, Nutzername und Passwort angeben.



      Während der Installation bekommt man eine optisch sehr nett anzuschauende Slideshow geboten.

      Der erste Start:
      Das erste was sofort ins Auge springt: Der neue Login Screen.



      Der Grund ist, dass statt GDM (Gnome Display Manager) nun LightDM als Login Manager eingesetzt wird.
      LightDM soll vor allem schlanker sein und sich sehr gut Themen lassen.

      Nach dem Login begrüßt einen nun je nach Grafiktreiber Unity oder Unity 2D. Auf dem ersten Blick sieht das relativ ähnlich aus. Im Detail gibt es aber dennoch einige Unterschiede.
      Bei Unity 2D fehlen eine Menge Desktop und Transparenz Effekte. Auch der neue Alt+Tab Switcher kommt hier nicht zum Einsatz.
      Trotzdem ist Unity 2D um einiges ausgereifter als noch in der Vorversion.


      Unity 2D
      Unity 3D

      Unity:
      Eines vorweg, das Grundkonzept von Unity bleibt bestehen. Wer sich damit überhaupt nicht anfreunden kann, sollte seine Zeit nicht mit meckern verbringen sondern eine der Alternativen installieren.

      Unity in Oneiric sieht sehr elegant aus und fühlt sich viel runder an, als das noch in Natty der Fall war.

      Unter anderem wurde das Dashboard wurde stark überarbeitet.
      Das Symbol zum aufrufen hat sich nun links ganz oben in die Leiste verlagert. Dadurch sind die Buttons zum schließen/minimieren/vergrößern ganz oben Links im Panel.

      Beim Aufruf wird das gesamte obere Panel durchsichtig und bietet einen beeindruckenden visuellen Effekt.

      Die Dash bietet nun viel bessere Filtermöglichkeiten um nach Applikationen zu suchen.


      Die Dash ist in 4 Bereiche unterteilt.
      Neben der Home Ansicht, gibt es noch die App Ansicht, die Dateien/Ordner Ansicht und die Musik Ansicht.

      Insgesamt sehr gelungen, das einzige was mich persönlich noch stört, sind die riesengroßen Icons in der Home Ansicht.

      Indicators:
      Der Message Indicator integriert nun auch die Statussteuerung vom Instant Messenger.

      Das klassische Herunterfahren Menü, ist nun eher ein SystemsteuerungsIndicator, dass einem schnell nach Updates oder Systemeinstellungen sehen lässt.
      Wenn man auf seinen eigenen Namen klickt, kann man zwischen verschiedenen Usern switchen.

      AppSwitcher
      Durch die Tastenkombination Alt+Tab kann man nun visuell beeindruckend durch laufende Anwendungen wechseln.

      Mit Alt+^ kann man durch verschiedene Fenster einer bestimmten Applikationen switchen. Dabei bekommt man auch eine Vorschau.


      Ubuntu Software Center:
      Wurde komplett überarbeitet und bietet nun eine viel bessere User Experience ähnlich wie der AppStore oder dem Android Market.

      Mehr Infos gab es in einem früherem Post von mir: http://www.plantoschka.com/2011/08/das-neue-ubuntu-software-center.html

      Überblick:
      Das waren natürlich längst nicht alle Neuerungen. Innerhalb von sechs Monaten hat Canonical wirklich eine Menge neuer Sachen eingeführt.


      Ubuntu 11.10 landet nun erstmal auf meiner neu gekauften SSD und wird dann ausgiebig getestet. Ob die neuen Features, die auf den ersten Blick wirklich super wirken sich auch etablieren, berichte ich dann in ein paar Tagen.
      Zur Stabilität von Ubuntu 11.10 schreibe ich dann auch demnächst was.

      Heute gegen 19 Uhr wird (höchstwahrscheinlich) die neuste Ubuntu-/Kubuntuversion 11.10 mit dem Codenamen Oneiric Ocelot das Licht der Welt erblicken. Interessant finde ich wie immer die entsprechende Kubuntuvariante. Besonders hat es mir dabei das neue Paket kubuntu-low-fat-settings angetan. In diesem Paket sind Einstellungen enthalten um das System flott zu machen, indem z.B. die Arbeitflächeneffekte, Nepomuk et cetera deaktiviert werden. Sehr schön für die die das nicht jedesmal neu konfigurieren wollen :)

      Weitere Informationen gibt es unter:
      http://wiki.ubuntuusers.de/Oneiric_Ocelot
      http://dohbuoy.wordpress.com/2011/09/23/slim-it-down/

      12. Oktober 2011

      Mein erster Rechner (ein älteres Macbook) ist als erstes von Lucid nach Oneiric umgezogen. Naja, nicht umgezogen, sondern neu installiert. Jetzt würde ich gerne die Programme, die ich unter Lucid installiert hab, auch in Oneiric nutzen. Nur welche waren das nochmal… Hier bietet sich das Programm deborphan an, welches solche Pakete auflistet, die von keinem anderen Paket benötigt werden. Das sollte genau diejenigen sein, die ich mal irgendwann manuell nachinstalliert hab.

      Mein erster Rechner (ein älteres Macbook) ist als erstes von Lucid nach Oneiric umgezogen. Naja, nicht umgezogen, sondern neu installiert. Jetzt würde ich gerne die Programme, die ich unter Lucid installiert hab, auch in Oneiric nutzen. Nur welche waren das nochmal…

      Hier bietet sich das Programm deborphan an, welches solche Pakete auflistet, die von keinem anderen Paket benötigt werden. Das sollte genau diejenigen sein, die ich mal irgendwann manuell nachinstalliert hab. Der Aufruf sieht so aus:

      deborphan -a | awk '{print $2}' | sort
      

      …und das liefert bei mir die gewünschte Liste

      (Die Weisheit hab ich von stancil aus dem ubuntuuser.de-Forum)

      Es ist Oktober und es ist nun wieder so weit, eine neue Ubuntu Version erscheint. Nach Natty Narwhale folgt nun der Oneiric Ocelot mit neuen Programmen, verbessertem Interface & vielem mehr.

      1. Die Unity Oberfläche

      Ubuntus Standardoberfläche Unity wurde mächtig aufgemotzt, alle kleinen und größeren Fehler der Vorgängerversion Natty wurden größtenteils ausgebessert. So kann man mithilfe des CCSM (Compiz Config Settings Manager) das Aussehen von Unity verändern. Transparenz des Launchers und des Panels können nun endlich festgelegt werden. Außerdem ist noch vieles mehr möglich wie z.B. das Ändern der Icongröße. Eine weitere Neuerung: Sucht man im Dash nach einem Programm, so kann man dieses mit Drag & Drop zum Launcher hinzufügen.

      Dash Lenses: Neben den herkömmlichen Lenses (File-, Applense) gibt es nun eine Suche für die eigene Banshee-Musiksammlung. Außerdem können nun die Suchergebnisse gefiltert werden.

      Applense: In der Applense können die Suchergebnisse nach Appkategorie (Multimedia, Spiele, System …) und nach Bewertung in Sternen gefiltert werden. Die Application-Lense kann mit dem Shortcut SUPER + A aufgerufen werden.

      Filelense: Die Filelense ist zur Suche von Dateien geeignet und auch hier gibt es einen Filter mit folgenden Einstellparametern: Zuletzt geändert (letztes Änderungsdatum), Typ (Musik, Video, Bilder, Präsentation …) und auch Größe (in Schritten von 1KB bis 1GB). So kann man die Ergebnisse immer weiter einschränken. Das Tastenkürzel zum Öffnen der Datei-Lense ist SUPER + F.

      Neben den beiden alten Lenses gibt es nun eine Musiklense, welche die Banshee-Musiksammlung durchsucht. Angezeigt werden alle Alben & Titel, die man zu seiner Banshee-Sammlung hinzugefügt hat. Sehr praktisch, schnell und kompakt meine Sammlung zu durchsuchen. Mit SUPER + M kann man schnell mit einer Tastenkombination die Musiksuchmaske aufrufen.

      2. Software-Center

      Das Ubuntu Software Center wurde komplett redesignt und zeigt nun die bestbewerteten und neusten Programme an. Als Banner werden neue Programme, hier Wunderlist & BRAID, vorgestellt und mit einem Klick darauf kommt man sofort zum Software-Eintrag. Sieht sehr schick aus. Was mich sehr überrascht hat, ist der Weg, den Canonical nun einschlägt. Neben kommerzieller Software & Musik gibt es nun auch Zeitschriften, die man über das Software-Center kaufen kann.

      3. Benutzerlogin Seite

      Auch das Benutzerlogininterface wurde überarbeitet und es wird hier nun LightDM verwendet. Gefällt mir optisch sehr gut und macht einiges her. (siehe: OmgUbuntu)

      4. Neue Programme

      Der Mail-Client Thunderbird ist nun Standard in Ubuntu 11.10 – Oneiric Ocelot. Neben dem wurde ein sehr tolles Backup Programm integriert – DejaDüp.

      5. ALT-TAB Launcher

      Mithilfe der Tastenkombination ALT+TAB kann zwischen Programmen geswitcht werden. Gibt es zu einem Programm mehrere Fenster, so kann man sich eine Vorschau der einzelnen Fenster anzeigen lassen, dazu muss man einfach 1-2 Sekunden beim gewählten Programm warten. Danach vergrößert sich der Tab-Switcher und zeigt eine Vorschau der Programm-Fenster.

       

      6. GTK3 – Nautilus

      Ein weitere große Änderung ist die Umstellung von GTK 2 auf [wpseo]GTK 3[/wpseo]. So hat sich unter anderem auch das Design des Nautilus-Datei-Browser verändert. Die Entwickler haben sich da wohl sehr am Nautilus-Elementary Design orientiert. Auch alle Systemeinstellungen und das Software-Center haben GTk3 im Unterbau. Die Umstellung auf GTK 3 hat aber auch nicht so schöne Folgen. In Ubuntu 11.10 ist es nur schwer möglich das Iconset oder das GTK-Theme zu ändern. Zwar kann man zwischen den bereits vorhanden GTK-Themes switchen, neue zu installieren ist nur durch große Umwege und Risiken möglich.

      Das gefällt mir an Ubuntu Oneiric Ocelot:

      Die Abstürze von Unity und Ubuntu allgemein gehören mit der neusten Version der Vergangenheit an. Während meinen kompletten Tests gab es kein einziges mal einen Absturz. Das Software-Angebot wird von Version zu Version besser, so wurde mit Thunderbird meiner Meinung nach der perfekte Standard-Mail-Client gefunden (Ich war nie ein Freund von Evolution). Und auch mit DejaDüp ist nun ein exzellentes, einfach zu bedienendes Backupprogramm an Board. Optisch gesehen ist die neuste Ubuntu-Version ein echter Augenschmaus und Unity (Dash, Launcher …) gewinnt immer mehre praktische & tolle Funktionen hinzu.

      Das muss noch verbessert werden an Ubuntu:

      Leider gibt es auch ein paar Dinge, die mir an der neuen Ubuntu Version noch nicht so gut gefallen. So sollte zum Beispiel die Größe der Launcher-Icons nach der Installation automatisch mithilfe der Bildschirmauflösung auf eine angenehme Größe skaliert werden. Ich brauche keine 50 Pixel großen Icons by default. Generell ist das Anpassen von Ubuntu schwieriger geworden, Icons und Themes kann man nur schwer nachinstallieren und Unity-Anpassungen können erst durch Umwege getroffen werden. Dazu muss man den Compiz Einstellungsmanager im Software-Center runterladen & installieren. Schade, dass dieser nicht gleich standardmäßig bei der Installation dabei ist. Ich hoffe, dass dies vielleicht mit der nächsten LTS (Long-Time-Support) Version möglich ist.

      Trotzdem super Version bis jetzt, mir macht’s sehr Spaß mit Unity zu Arbeiten. Bei mir bleibt’s erstmal d’rauf und ich gebe Gnome3 den Laufpass. Und ihr? Unity, Gnome-Shell, Gnome2 oder ganz was anderes?

      18 Kommentare | Kommentar schreiben | Was ist neu in Ubuntu Oneiric Ocelot (11.10) ?

      Auf meiner frischen Oneiric-Installation hatte ich ein Problem mit Audex:
      Immer wenn ich ein neues Profil anlegen, oder nach Codecs suchen wollte, ist mir das Proggi abgeschmiert.

      Nach etwas googelei hab ich auf Launchpad einen passenden Bugeintrag (#614895) inklusive Workaround gefunden. Ins Terminal tippt man folgenden Befehl:

      rm -r ~/.kde/share/config/audexrc
      

      Und schon läuft das Ganze wieder…

      Auf meiner frischen Oneiric-Installation hatte ich ein Problem mit Audex: Immer wenn ich ein neues Profil anlegen, oder nach Codecs suchen wollte, ist mir das Proggi abgeschmiert. Nach etwas googelei hab ich auf Launchpad einen passenden Bugeintrag (#614895) inklusive Workaround gefunden. Ins Terminal tippt man folgenden Befehl: rm -r ~/.kde/share/config/audexrc Und schon läuft das Ganze wieder…

      Bei der Verwendung des proprietären Nvidia-Treibers in Kombination mit Twinview kommt es bei einigen Flash-Video-Seiten zu einem hässlichen Fehler: Videos werden im Vollbild nicht korrekt dargestellt, das Bild füllt nur einen kleinen Teil des Bildschirms aus.

      Ich hatte bisher noch keine zufriedenstellende Lösung gefunden. Einige Nutzer lassen durch zusätzliche Skripte den Flashplayer auf Youtube durch VLC ersetzen. Andere Nutzer lassen durch diesen Trick das Flash-Video das gesamte Browser-Fenster einnehmen und versetzen dann den Browser in den Vollbild-Modus. Wirklich befriedigend ist das alles nicht.

      Alistair Buxton hat sich auf seiner Homepage einmal näher mit dem Problem beschäftigt und rausgefunden, warum der Flashplayer auf Youtube so skaliert, wie er skaliert. Letztendlich ermittelt das Flash-Plugin durch einen bestimmten API-Aufruf (XGetGeometry) die Größe der Anzeigefläche. Diese wird an den Flash-Player weitergereicht, der daraus seine Schlüsse zieht. Der Youtube-Player scheint zunächst das Flash-Video auf den gesamten Anzeigebereich zu skalieren, um dieses Bild dann (inklusive schwarzer Balken) wieder auf die Größe der primären Anzeige runterzuskalieren oder entsprechend zu beschneiden. Auf der Seite von Alistair Buxton ist das anhand verschiedener Bilder gut nachzuvollziehen.

      Alistair hat nun einen kleinen Hack veröffentlicht, der den Aufruf der Methode “XGetGeometry” durch dynamisches Linken mittels LD_PRELOAD überschreibt. Wenn das Flash-Plugin nun nach der Anzeigegröße fragt, werden ihm Breite und Höhe des primären Bildschirms zurückgegeben. Der kleine Hack findet sich hier und ist leicht zu verwenden, in der Readme-Datei finden sich alle wichtigen Informationen.

      Einen Nachteil hat auch diese Methode natürlich: Bei jedem Aufruf des Browsers muss die Umgebungsvariable LD_PRELOAD explizit gesetzt werden, damit die modifizierte XGetGeometry-Funktion zum Tragen kommt. Es empfiehlt sich daher, die .desktop-Datei des Lieblingsbrowsers entsprechend anzupassen. Alternativ könnte auch ein kleines Skript erstellt werden, das statt des Browsers aufgerufen wird:

      #!/bin/bash
      LD_PRELOAD=/usr/lib/libfullscreenhack.so chromium-browser $@

      Letztlich ist natürlich auch diese Lösung keine Dauerlösung. Durch den kleinen Trick von Alistair kann man das Problem aber erstmal umschiffen. Endlich.

       

      11. Oktober 2011

      Gerade eben habe ich eine eMail bekommen, dass sowohl die AppDB von Wine als auch Bugzilla gehackt wurden. (Mehr zu diesem Hack.)

      Es scheint als ob die Hacker nur die Login-Daten hätten auslesen können. Manipulationen der Datenbank wurden von den Verantwortlichen nicht festgestellt. Die Lücke durch die die Hacker eindringen konnten scheint sich in phpmyadmin zu befinden, welches deswegen nun keinen Zugriff mehr von außen zulässt. Damit reiht sich Wine in die unglückseligen Opfer der Free Software Szene in der letzten Zeit ein. Nach mysql.com (im März diesen Jahres), kernel.org und linux.com scheint es fast so, als ob selbst Seiten welche man als Nutzer sicher glaubt nicht vor solchen Angriffen gefeit sind. Codeweavers, die Firma welche die AppDB und Bugzilla hostet will die Lücke bereits geschlossen haben.

      Jedem, der bei einem dieser Services ein Konto hat wird eine eMail zugesandt in welcher ein neues Passwort zum Login steht. Zwar seien die Passwörter verschlüsselt gewesen, mit genügend Zeit und Rechenkraft lassen sich jedoch vor allem einfache Passwörter schnell herausfinden.

      Zum aktuellen Thema deswegen die Frage: wie schützt ihr euch vor potentiellen Hacks der Seiten bei denen ihr euch anmeldet? Wie wählt ihr eure Passwörter aus? Kennt ihr gute und einfache Tools um relativ sichere Passwörter zu erzeugen?

      =-=-=-=-=
      Powered by Blogilo


      Einsortiert unter:Free Software/Open Source, Internet, Ubuntuusers

      Kommt es mir nur so vor, oder wurden im letzten Jahr vermehrt OpenSource-Seiten gehackt (LinuxFoundation, kernel.org,…)? Wenigstens waren die Passwörter nach eigenen Anganben nur verschlüsselt gespeichert, was bei genügend langsamem Hashing ja eigentlich relativ sicher ist. Bleibt zu hoffen, dass die Serie der Einbrüche nicht so weiter geht, sonst trägt nicht nur die OpenSource Community, sondern das gesamte Internet Schaden von derartigen Hackaktionen!

      Dieses E-mail habe ich gerade bekommen:

       

      WineHQ AppDB Login Database Compromised:

      We are sorry to report that recently our login database for the
      WineHQ Application Database was compromised. We know that the entire
      contents of the login database was stolen by hackers. The password
      was encrypted, but with enough effort and depending on the quality
      of your old password, it could be cracked.

      We have closed the hole in our system that allowed read access to
      our database tables.

      To prevent further damage we have reset your password to what is shown
      below. We strongly suggest that if you shared your AppDB password on
      any other sites that you change that password as soon as possible.

      For more detailed information about this hacking, please read about
      it at this link:

      http://www.winehq.org/pipermail/wine-users/2011-October/097753.html

      Again, we apologize for any inconvenience this has caused.

      -WineHQ Staff

      http://appdb.winehq.org/

      Eine von mir betreute Seite wurde übrigens ebenfalls bereits einmal gehackt, allerdings lag die Schuld nicht bei mir, sondern beim Hosting-Provider, bei dem die Angreifer Rootrechte bekamen. Da es sich nur um eine statische Seite ohne Datenbankinhalte hielt, war die Sache schnell wieder behoben:Eine gehackte Website

      Ursprünglich hatte ich geplant ein kleines Review meiner Meinung bezüglich der Gnome Shell 3.2 und Unity (4, also Ubuntu 11.10) zu schreiben, jedoch ist mir darauf erst einmal die Lust vergangen.

      Ich habe von sehr vielen Meinungen gehört, und was mich daran gestört hat waren die Kommentare. Immerwieder ein “Unity ist unbrauchbar”, “Unity ist mist”, “mit GNOME Shell kann man nichts anfangen” (ich habe es mal ein wenig entschärft, aber ich denke alle wissen in welche Richtung das ging und noch immer geht). Das lustige daran ist ja eigentlich, dass dank den Paketen von GNOME Shell in den Ubuntu Repositories dem User die Möglichkeit gegeben wird (und die ist wirklich verdammt einfach) sich zu entscheiden. Man muss nichts weiter tun, als im Software-Center nach gnome-shell zu suchen und das Paket zu installieren. Es taucht automatisch in LightDM (Anmeldefenster) auf und man kann es wie beispielsweise Unity oder Unity 2D auswählen. Ich persönlich sehe Unity als eine gute Initiative von Canonical, auch wenn sie an einigen Stellen wirklich Kritik einstecken muss.

      DOCH, und hier kommt das was mich am meisten an der ganzen Sache stört ist, dass es nunmal Canonicals Entscheidung war, und dass dennoch ziemlich viele auf Unity umgestiegen sind. Wie in vielen Artikeln geschrieben wurde, Gnome 2 war auch nicht von Anfang an perfekt und es bedarf damals einigen Updates bis es wirklich einsatztüchtig war. Unity war in 11.04 schon ganz gut (laut vieler Meinungen), aber es fehlte eben noch an dem ein oder anderen Ende. Jetzt, mit 11.10 Oneiric, hat man auf die Nutzer gehört und an einigen Ecken ausgebessert.
      Die Sache ist aber die, dass hinter der GNOME Shell und Unity zwei verschiedene Konzepte stecken, auch wenn beide Oberflächen diverse Ähnlichkeiten haben (Dash in Unity ähnelt ein bisschen der von der GNOME Shell, der Tab-Switcher ist teilweise ähnlich von der Bedienung usw.). Es hängt aber eben von jedem persönlich ab, welche Änderungen er für sinnvoll erachtet (z.B. GlobalMenu, Dash, Launcher) und welche nicht. Daher liegt es auch bei jedem selbst für welche Oberfläche er sich entscheidet.

      Und man kann natürlich auch über die beiden Konzepte und deren Umsetzung diskutieren, jedoch sind Kommentare wie oben bereits gennant einfach unbrauchbar und wenig konstruktiv. Die individuelle Meinung ist wichtig um die Bedürfnisse der Nutzer zu treffen, aber sollten sie dann doch begründet sein und auch in einer gewissen Selbsttest-Erfahrung gründen. Das heißt nicht, dass man sich Ubuntu mal in der virtuellen Maschine anschaut und nach 2 Minuten wieder löscht – NEIN. Um eine differenzierte Meinung zu bekommen sollte man sich einfach mal über einen gewissen Zeitraum hinweg mit dem “Neuen” auseinandersetzen. Das ist sogar sinnvoll, selbst wenn viele auf alt bewährtes schwören, denn was wären wir ohne Neuerungen? Unter Windows war es auch kein wirkliches Argument nach Vista zu sagen, dass man Windows 7 erst gar nicht ausprobieren wolle, weil Vista ja schon so schlecht war und das bei Windows 7 ganz bestimmt noch schlechter würde. Es ist nicht das Ziel der Entwickler sich die Benutzer zu vergraulen, aber auch Entwickler wollen kreativ sein dürfen und somit neue Ideen einbringen und diese dann auch umgesetzt sehen, denn sonst geht die Motivation flöten. Und das ist vor allem im OpenSource bereich so, wo nur wenige Geld mit dem verdienen, was sie für die Gemeinschaft tun.

      Fazit:

      Also bitte, denkt doch vorher einmal darüber nach, was die Hintergründe für Änderungen/Neuerungen sind und lasst euch ein bisschen darauf ein. Schwört nicht zuvor schlechtem ab und seit für eine Überraschung offen. Wenn ihr Kritik einbringt, dann doch bitte konstruktiv und differenziert.