ubuntuusers.de

🚧 Am Sonntag, 5. Mai, werden ab 16 Uhr die Server aktualisiert und eine neue Inyoka-Version veröffentlicht. Das Portal wird mehrmals nicht verfügbar sein.

6. Dezember 2011

Web-Übersicht

Web-Übersicht (Quelle: blogs.gnome.org)

Epiphany ist der Web-Browser für den GNOME-Desktop. Dieser wird nun aufpoliert und soll auch wichtiger für den GNOME3-Desktop werden.

Letzte Woche gab es ein WebKitGTK+-Hack-Fest, auf dem an der WebKitGTK+-Rendering-Engine  und Epiphany intensiv gearbeitet wurden. In einem Blog-Eintrag gibt es Einblicke, was man von künftigen Versionen des Web-Browsers erwarten darf.

Erst einmal wollen die Entwickler mehr Platz für Seiteninhalte schaffen. Eventuell wird die Tab-Leiste durch eine bessere Lösung ersetzt und man will das Wechseln zwischen Seite einfacher machen. Mit der neuen Funktion Queues lassen sich Seiten für das spätere Lesen abspeichern. Weiterhin denkt man über die Integration von Web-Applikationen nach und Unterstützung für das kommende WebKit2.

Einige der Verbesserungen Epiphanys werden bereits in GNOME 3.4 zu sehen sein. Einige andere nehmen wohl erst mit GNOME 3.6 Einzug. Ein Roadmap zu Epiphany 3.4 finden Sie auf GNOME Live.


Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

Android OS LogoAlso hier ist ein weiteres billiges Android-Tablet. Allerdings ist es das erste, das mit Android Ice Cream Sandwich (4.0) ausgeliefert wird. Und das ganze auch noch für weniger als 100 US-Dollar. Als Herzstück dient ein MIPS-Prozessor. Wie gut das Tablet ist, wird sich zeigen.

Der Presse-Mitteilung ist zu entnehmen, dass das JZ4770 SoC von einer MIPS32-kompatiblen XBurst CPU von Ingenic angetrieben wird. Die XBurst CPU soll weniger als 90 mW bei 1 GHz verbrauchen. Das komplette Gerät verbraucht angeblich 250 mW, wenn die CPU und die Video-Engine unter voller Last stehen. Der Grafik-Prozessor (GC860 GPU) von Vivante Corp. kann mit 1080p umgehen und bringt Unterstützung für OpenGL ES 2.0. Alle Versionen des Tablet haben WiFi 802.11 b/g/n, USB 2.0, HDMI 1.3 und einen Steckplatz für microSD.

Der Bildschirm ist sieben Zoll groß und das Tablet ist von Google zertifiziert. Mal abwarten was die ersten Tests mit der nicht-x86-Architektur ergeben. Das Tablet wird in China produziert und wohl zunächst in den USA auf den Markt kommen. Wann und ob es in Europa zu haben ist, wird nicht erwähnt.


Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

5. Dezember 2011

Nach meinen ersten Erfahrungen mit meiner eigenen Cloud, dem ownCloud, habe ich natürlich weitere Versuche unternommen den neu gewonnen Netzwerkspeicher zu kontaktieren. Eines der einfachsten Protokolle für den ownCloud Server ist das WebDAV Protokoll. ownCloud unterstützt das WebDAV und macht somit einen Kontakt direkt in mein Ubuntu 11.10. Ubuntu unterstützt von Hause aus das WebDAV. Dazu starte ich den Dateimanager Nautilus und wähle im Menu “mit Server verbinden”

Danach muss man seine Konfiguration ( Server, User, Passwort ) eingeben. Neben der Server-Adresse muss noch der Pfad /files/webdav.php hinzugefügt werden.

Ist die Verbindung zustande gekommen, sieht man die Datei-Struktur des angegebenen Benutzers.

Die Struktur oder Manipulationen sind im Web-Frontend des ownCloud sofort ersichtlich.

Fazit

Mit WebDAV ist es möglich den Ubuntu Client mit ownCloud direkt im Dateimanager Nautilus zu verbinden und Dateien auszutauschen. Das macht das arbeiten am heimischen Desktop schon viel einfacher.

 

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Ich möchte Euch hier kurz eine Möglichkeit aufzeigen, wie man mittels GPG Dateien verschlüsselt. Die folgende Methode findet bei mir Verwendung wenn ich Dateien ohne viel Aufwand sicher übertragen oder die Inhalte vor neugierigen Blicken schützen möchte.
 
GnuPG ist auf allen aktuellen Ubuntu-Versionen bereits vorhanden.


Eine Datei wird mittels gpg -c datei und zweimaliger Eingabe eines Passwortes verschlüsselt und unter “datei.gpg” abgelegt. Bitte beachten, dass die Quelldatei noch vorhanden ist und manuell gelöscht werden muss.
 
Mit   gpg -d datei.gpg > datei kann die Datei wieder entschlüsselt werden.
 
So sieht der Inhalt der Original-Datei aus:
 

und so nachdem die Datei mit “CAST5″ verschlüsselt wurde:
 

 
 
Anleitung wurde mit Ubuntu 10.04 erstellt
 
Fazit: Die Verschlüsselung von Dateien mit GnuPG ist eine einfache Möglichkeit Dateien vor unerlaubten Zugriffen zu schützen. Voraussetzung ist hier natürlich ein starkes Passwort. Der einzige kleine Wermutstropfen ist, dass die Original-Datei nach dem verschlüsseln gelöscht werden muss.
 
Weitere Informationen zu GnuPG erhaltet Ihr auf der Seite von GNU Privacy Guard
 
 
Klar soweit?
Euer RSB

GIMP - Einzelfenster-Modus

Einzelfenster-Modus

Es scheint so, als würde sich die Entwicklung von GIMP 2.8 dem Ende zuneigen. Es wird auch irgendwie langsam Zeit, denn an der neue Version der beliebten Open-Source-Bildbearbeitungs-Software wird schließlich schon seit 2009 gearbeitet. Ursprünglich war mal eine Ausgabe Ende 2010 geplant. Nun ist es schon ein Jahr später und die Gold-Ausgabe lässt immer noch auf sich warten.

 

Dann gab es zwischenzeitlich Gerüchte, dass GIMP 2.8 im März 2011 oder im November 2011 das Tageslicht erblickt. Diese Termine sind ebenfalls bereits verstrichen.

Viele warten sicher auf den Einzelfenster-Modus in der Software. Dieser funktioniert schon ganz gut in der letzten Entwickler-Version. Allerdings schöpft GIMP 2.8 noch nicht voll die Vorteile der GEGL-Bibliothek aus.

Die guten Nachrichten sind, dass GIMP 2.8 nun einem String Freeze unterliegt. Dies wurde von Alexandre Prokoudine in der GIMP-Entwickler-Liste bekannt gegeben.

Was nun noch an Arbeiten fehlt sind die Release-Notizen, ein Splash-Bild und das Ausmerzen von zwei Fehlern. Einer davon hängt mit dem Einzelfenster-Modus zusammen. Laut Task Taste sollte GIMP 2.8 nun am 26. Januar 2012 erscheinen.

Ubuntu-Anwender die eine Entwickler-Version von GIMP 2.8 ausprobieren wollen, können dies via Launchpad tun: ppa:matthaeus123/mrw-gimp-svn (Danke an Marco von rockiger.com für diesen Tipp)


Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

4. Dezember 2011

Mit dem ubuntu-radio fallen immer wieder viele Dateien an. Wir leben davon, dass wir unsere Musik, Podcasts und Hörspiele als Audio-Dateien im mp3 oder ogg Format benutzen um das Radio Programm senden zu können. Nach einiger Zeit hat sich nun eine beachtliche Sammlung auf meinem Server zusammen getan. Die Sammlung wird als Genre gespeichert und als Wochenprogramm zusammen gestellt.

Damit diese Daten in Zukunft von weiteren Benutzern genutzt werden können, habe ich mich auf die Suche nach einer Cloud Lösung gemacht. Ich habe einige Kommerzielle Ideen wie Dropbox oder Ubuntu One angeschaut. Bei all diesen Lösungen sind die Daten irgendwo abgespeichert und ich kenne den Ort nicht. Das passt mir nicht und so suchte ich weiter für eine Cloud Lösung die ich mir auf meinem eigenen Server installieren kann.

ownCloud

Die ownCloud ist eine Software-Suite, die einen ortsunabhängigen Speicherbereich für Daten zur Verfügung stellt. Das Projekt wurde im Januar 2010 vom Entwickler Frank Karlitschek ins Leben gerufen, um eine freie Alternative zu kommerziellen Cloud-Anbietern zu schaffen. Im Gegensatz zu kommerziellen Speicherdiensten kann ownCloud auf einem privaten Server ohne Zusatzkosten installiert werden. Somit können gerade bei sensiblen Daten die Bedenken gegenüber einer Datenweitergabe und der damit einhergehenden Abgabe der Kontrolle über die Daten ausgemerzt werden.Als Grundlage setzt das Projekt auf PHP und einer angebunden SQLite, MySQL oder PostgreSQL-Datenbank. Somit kann ownCloud auf allen Plattformen betrieben werden, auf denen diese Anforderungen erfüllt werden. Die ownCloud kann über eine Weboberfläche bedient werden und ist dadurch nicht an ein bestimmtes Betriebssystem gebunden. Aber auch native Programme, wie beispielsweise Dateimanager oder Groupwares, können die ownCloud über eine Schnittstelle ansprechen und Dateien und Daten lokal bereitstellen.

Was kann ownCloud bis jetzt ?

  • Dateiablage in herkömmlichen Verzeichnisstrukturen (auch über WebDAV)
  • Kalender (auch als CalDAV)
  • Adressbuch (auch als CardDAV)
  • Musikwiedergabe (über Ampache)
  • Benutzer und Gruppenverwaltung (auch über openID oder LDAP)
  • Teilen von Inhalten über Gruppen oder öffentliche URLs

Was soll ownCloud zukünftig noch können ?

Damit ownCloud dem Begriff Cloud gerecht wird, wird an einer Synchronisation zwischen verschiedenen ownCloud-Servern gearbeitet. Zudem soll die Plattform um folgende Dienste erweitert werden:

  • Fotoalbum
  • Online-Texteditor
  • Online-Aufgabenplaner
  • Verschlüsselung
  • Bookmarking
  • Synchronisation von DesktopsApps für Smartphones und Tablets

Was machen wir bis jetzt mit ownCloud ?

Ich habe vor, alle unsere Musik-Dateien mit ownCloud zu verwalten. Wenn das Projekt weiter fortschreitet, dann ist auch der Aufgabenplaner und weitere Dienste eine gute Idee für unser ubuntu-radio. Bis dahin werden zum Beispiel auch die Wochen-Programme in einem tar.gz File zusammengefasst und öffentlich angeboten. Die Wochenprogramme bis max 3 letzten Wochen umfassen alle Musik Dateien die gesendet wurden. Alle Musik Dateien sind GEMA etc. frei und können weiter verwendet werden.

Fazit

Mit ownCloud steht uns eine einfache und stabile Cloud-Lösung für unser Radio zur Verfügung. Wenn ownCloud weitere Dienste einbindet, dann können wir zukünftig in unserer eigenen Cloud arbeiten.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

TuxWer sich fragt, wann denn die im letzten Monat veröffentlichte Flicken für den Linux-Kernel, die die Energie-Verwaltung von Windows imitieren sollen, im eigentlichen Kernel erscheinen – es gibt Neuigkeiten.

Das Problem ist, dass man Active State Power Management (ASPM) per Standard aktivieren könnte. Allerdings wird es sich nicht selbst ausschalten, wenn die Hardware damit nicht kann. Wo PCI-E Express ASPM also aktiviert und nicht unterstützt ist, könnte es in gewissen Fällen zu Instabilitäten kommen.

In den Linux-Kernel werden Matthew Garretts Patches erst in Ausgabe 3.3 implementiert. Grund hierfür ist, dass die Arbeit nach dem Merge-Fenster für 3.2 erschienen ist. Derzeit wohnen die Flicken im linux-next-Baum. Ebenso ist es denkbar, dass die Patches auch in derzeitige stabile Versionen fließen. Das gilt für Kernel-Versionen nach 2.6.38, mit dem das Problem auftrat, die noch aktiv gewartet werden. Allerdings wollen die Entwickler hier noch weiter testen. Ebenfalls werden die Entwickler die Flicken erst in 3.3 einbauen und dann die anderen Versionen versorgen.

Ubuntu-Anwender können übrigens einen Pre-Built-Kernel mit Garretts Patches ausprobieren. Es gibt Versionen für 11.10 “Oneiric Ocelot” und 12.04 “Precise Pangolin”, wo gerade eben die erste Alpha-Ausgabe veröffentlicht wurde. Sie finden dazu weitere Informationen auf dieser Ubuntu-Wiki-Seite. Dort gibt es auch einen Bereich, wo Anwender ihre Erfahrungen teilen können. Planmäßig wird Precise Linux-Kernel 3.2 mit sich bringen. es sieht aber so aus, dass Canonical die ASPM-Patches in den Precise-Kernel einbringen wollen.


Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Alexandria
    Genre Verwaltung
    Preis kostenlos
    Homepage Alexandria

    Wir werden ab sofort die folgenden Sonntage kleine Anwendungen vorstellen. Unsere „App der Woche“ kann ein kleines Tool für Linux sein, aber auch für Android oder ein Plugin für ein bestehendes Programm. Wir fangen mit Alexandria an, einer Literaturverwaltung für Linux.

    Installation

    Alexandria ist in den Ubuntu Paketquellen und kann daher über

    sudo apt-get install alexandria

    installiert werden. [update] Da ich noch Ubuntu 11.04 nutze, ist mir nicht aufgefallen, dass man Alexandria unter 11.10 nicht installieren kann. Ein Bugfix ist jedoch in Arbeit. Danke an die Kommentatoren!

    Unter dieser Ubuntuversion müsst ihr folgende Paketquelle hinzufügen:

    ppa:alexandria-team/ppa

    [/update]

    Benutzung

    Die Benutzung des Programmes ist sehr einfach, da es vollkommen intuitiv abläuft. Das tolle an dem Programm ist, dass man die Bücher gleich nach ihrer ISBN suchen kann. Es werden etliche Onlinebuchhändler danach abgesucht, sodass die Felder wie Autor, Titel und Veröffentlichunsjahr automatisch ausgefüllt werden.

    Das praktische an Alexandria ist, dass man die Literaturliste als BibTeX exportieren kann. Als Key wird dann der erste Autor verwendet. Leider gibt es aber keine Möglichkeit, andere BibTeX-Typen (etwa technische Berichte oder Artikel) hinzuzufügen.

    Fazit

    Um eine gute Übersicht über die eigene Büchersammlung zu haben, ist Alexandria perfekt geeignet. Wenn man über einen Barcodescanner verfügt, kann man seine Bücher noch komfortabler importieren. Auch für wissenschaftliche Arbeiten ist Alexandria geeignet, um den Überblick über die verwendete Literatur nicht zu verlieren.

    PlayOnLinux Logo 2011 150x150Die Entwickler von PlayOnLinux und PlayOnMac haben neue Versionen für die entsprechenden Betriebssysteme zur Verfügung gestellt. Die Sprachdateien wurden aktualisiert. Allerdings bitten die Entwickler weiterhin um Hilfe. Wer also mitmachen möchte, soll das via Launchpad tun. Die gute Nachricht ist, dass Deutsch fast komplett ist.

    Ebenso wurden die Wine-Versionen überarbeitet. Besonders auf kleinen Bildschirmen soll die Software nun besser benutzbar sein. Anwender können im Hauptfenster nun die Symbolgrößen verändern. Beim Schließen der Software wird nun die Größe und die Position des Fensters gespeichert. Außerdem gibt es Unterstützung für Wine 0.9.x. Mit Hilfe des neuen Plugin PlayOnLinux Vault können Sie Datensicherungen erstellen und diese auch wieder herstellen.

    PlayOnLinux und PlayOnMac soll es Anwendern einfacher machen, Windows-Spiele unter Mac oder Linux laufen zu lassen. Dabei sind Sie nicht auf eine Wine-Version angewiesen. Dank der eigenen Repositories werden die als gut befundenen Konfigurationen automatisch geladen und auf dem Rechner eingerichtet. Es werden nicht nur Spielen, sondern zum Beispiel auch diverse Microsoft-Office-Ausgaben und Adobe Photoshop CS 4 unterstützt. Das Spiele-Repository dürfte um die 200 Anwendungen enthalten. Die Sternchen hinter der Software geben an, wie gut die Anwendung läuft. Zu den unterstützten Spielen gehören auch recht prominente Zeitkiller, wie Fallout 3, Fallout New Vegas und Dragon Age 2.

    Darüber hinaus wurden diverse Bugfixes eingepflegt. Wer die Software ausprobieren möchte: PlayOnLinux 4.0.14PlayOnMac 4.0.14. Spezielle Binärpakete gibt es für Arch Linux, Debian, Frugalware, Ubuntu und Fedora.

     


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Wenn man ein Git Repository bei GitHub hat, so ist es doch recht nervig mit diesem per HTTPS zu arbeiten, da man dort für jede Anwendung sein GitHub Passwort eingeben muss. Einfacher ist es wenn man seinen Public SSH Key bei GitHub hinterlegt. Dabei wird hier davon ausgegangen das man noch keinen SSH Schlüssel besitzt. Um sich einen solchen anzulegen wechselt man auf die Konsole und gibt dort:

    ssh-keygen -t rsa -C "user@example.org"

    ein, wobei die Mailadresse natürlich zu ersetzen ist. In seinem Homeverzeichnis hat man nun im Ordner .ssh eine Datei namens id_rsa.pub welche man in einem Texteditor öffnen sollte. Nun geht man auf die Seite https://github.com/account/ssh und fügt dort einen neuen Schlüssel (Add another public key) hinzu. Dabei kopiert man die Zeichenkette aus der id_rsa.pub Datei in das Feld Key. Anschließend kann man sich ein Git Repository über SSH mittels:

    git clone git@github.com:Invertika/data.git

    holen und (die entsprechenden Rechte vorausgesetzt) problemlos mittels

    git push

    die getätigten Änderungen wieder in das GitHub Repository bringen, ohne ein Passwort eingeben zu müssen.

    Weitere Informationen gibt es unter:
    http://help.github.com/win-set-up-git/

    3. Dezember 2011

    Schon seit längerem ist es möglich, die GNOME-Shell durch sogenannte Extension (zu deutsch: Erweiterungen) im Funktionsumfang auszubauen. Bislang war eine relativ schwierige Prozedur vonnöten, um diese zu installieren.

    Seit kurzem gibt es nun eine zentrale Anlaufstelle für die GNOME-Shell Extensions. Auf extensions.gnome.org können Anwender nun mit nur zwei Klicks neue Extensions installieren, mit einem Klick deaktivieren oder aktivieren und auch mit einem Klick wieder entfernen. Die einzige große Einschränkung ist momentan noch, dass die Website nur mit Browsern funktioniert, die auf der Gecko-Engine basieren (z.B. Firefox). Wenn man bedenkt, dass sich die Seite momentan im Alpha-Stadium befindet geht das aber voll in Ordnung.

    Installation von Extensions

    Extension aktivieren/deaktivieren

    Das Installieren von Extensions ist denkbar einfach. Nachdem man die Website extensions.gnome.orgaufgerufen hat, wählt man einfach die Erweiterung aus, die man installieren möchte. Dann kickt man auf den Einschaltbutton und bestätigt den Dialog. Das Deaktivieren einer Erweiterung verläuft auf gleiche Weise.

    Extension entfernen

    Extension entfernen

    Möchte man eine Extension entfernen, klickt man im Menü auf Installed extensions. Dann erscheinen alle installierten Extensions in einer Liste. Das rote X rechts neben jedem Eintrag löscht die Erweiterung komplett vom PC.

     

    FSF - Free Software Foundation Logo 150x150Ich bin gerade auf einen interessanten Artikel bei der Free Software Foundation (FSF) gestoßen, als ich die Online-Petition gegen Secure Boot unterzeichnet habe (kann sich nicht schaden, wenn noch weitere Menschen gegen Secure Boot oder das Recht Dual zu booten sind – also unterschreiben!).

    Der Artikel befasst sich mit dem ausgelösten Hype, als Amazon Quellcode für den Kindle veröffentlicht hat. Es ist mal wieder ein typisches Beispiel, wie schnell isch Menschen blenden lassen. Ich versuch das mal kurz zu machen.

    Der Kindle Fire basiert bekanntlich auf Googles Android. Um den Lizenzen (GPL und LGPL) gerecht zu werden, hat man genau die Teile veröffentlicht, die sowieso schon öffentlich verfügbar sind. Also die quelloffenen Teile sind weder einzigartig für Android, noch beinhalten diese Amazons Änderungen.

    Somit bleibt auch Amazons strenges DRM (Digital Rights Management) erhalten. Laut der FSF könnten es erfahrene Hacker durch die Veröffentlichung des Quellcodes etwas einfacher haben, komplett neue Software auf den Kindle Fire zu packen und somit das DRM knacken. Allerdings sollte keiner so einen Aufwand betreiben müssen, um das gleiche wie mit gedruckten Büchern machen zu können – weitergeben wenn gelesen.


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Torvalds gefällt GNOME 3

    Fast brauchbar ...

    Na da werden sich die Entwickler aber freuen. Vor gar nicht all zu langer Zeit hatte Torvalds GNOME 3 noch als Saustall bezeichnet, den jemand forken sollte. Der Sinneswandel kommt wohl mit den GNOME 3 Extensions.

    Auf seiner Google-Plus-Seite schreibt Torvalds, dass die Desktop-Umgebung mit Hilfe des gnome-tweak-tool und den Dock-Erweiterungen fast brauchbar aussieht. Er hofft allerdings, dass diese Dinge Standard in der GNOME Shell werden und nicht ein verstecktes Dasein fristen. Klar könne man diese per Standard deaktivieren. Aber die Entwickler sollten Anwendern das Auffinden und Aktivieren zumindest einfach machen.

    Er kann sich aber einen kleinen Seitenhieb nicht verkneifen und stichelt: Oder wäre das (die Erweiterungen per Standard einbringen) ein Zugeständnis der Entwickler, dass man falsch gelegen habe und somit sei das politisch nicht vertretbar.

    Mit den GNOME-Entwicklern ging Linus Torvalds im Jahre 2005 schon einmal hart ins Gericht und bezeichnete diese als Interface-Nazis.


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Ich betreibe einen Server auf welchen im Moment noch die 10.04 (Lucid) Version von Ubuntu läuft. Auf diesem Rechner benötige ich ein Mono 2.10. Glücklicherweise muss man das ganze nicht von Hand kompilieren, da sich jemand die Arbeit gemacht hat und dafür ein Skript geschrieben hat:

    wget --no-check-certificate https://github.com/nathanb/iws-snippets/raw/master/mono-install-scripts/ubuntu/install_mono-2.10.sh
    chmod 755 install_mono-2.10.sh
    ./install_mono-2.10.sh
    

    Nach dem Start des Skriptes ist der Rechner eine Weile beschäftigt, aber danach sollte die Mono Runtime 2.10 auf dem Rechner sein. Sie befindet sich dabei im Ordner /opt/mono-2.10/ kann also zum Beispiel so aufgerufen werden:

    /opt/mono-2.10/bin/mono autoupdate.exe

    Weitere Informationen gibt es unter:
    http://www.integratedwebsystems.com/2011/02/mono-2-10-install-script-for-ubuntu-fedora/
    http://www.integratedwebsystems.com/2011/08/install-mono-2-10-3-on-ubuntu-using-bash-script/

    Wine LogoSo schnell vergehen zwei Wochen – das ist bekanntlich der Ausgabezyklus von Wine-Entwickler-Versionen. Wer die Software nicht kennen sollte: Damit lassen sich diverse Windows-Anwendungen in Linux und anderen Betriebssystemen ausführen.

    Wine 1.3.34 bringt unter anderem Unterstützung für Bytecode in JavaScript mit. Ebenso gibt es Verbesserungen in Sachen Uniscribe. DirectDraw und ein paar MSVC-Runtime-Funktionen mehr. Gradienten werden in der DIB-Engine unterstützt. Wie üblichen haben die Entwickler einiges an Fehlern ausgemerzt. So ist es zumindest in der offiziellen Ankündigung zu lesen.

    Den Quellcode gibt es bei ibiblio.org oder sourceforge.net. Binärpakete für unter anderem Ubuntu, Debian, Red Hat, Fedora, CentOS, openSUSE, Mandriva, Slackware, FreeBSD und PC-BSD finden Sie im Download-Bereich der Projektseite. Für Neulinge lohnt sich ein Blick in die Dokumentation. Wine 1.4 wird voraussichtlich irgendwann in der ersten Hälfte 2012 erscheinen.


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Gnome 3 geht gar nicht – obwohl Viele den neuen Gnome-Desktop toll finden, teilt eine ebenso große Schar an Benutzern diese Einschätzung nicht, vor allem die Gnome-Shell polarisiert. Doch statt immer nur zu jammern, wie furchtbar Gnome 3 doch nun geworden sei, bieten wir diesmal Hilfe zur Selbsthilfe: Wie man auch in Zukunft noch die traditionelle „Gnome-Erfahrung“ bekommt, inklusive Hauptmenü, Symbolen auf dem Desktop und einem flexiblen Panel.

    Not my Desktop

    Gnome 3 samt Gnome-Shell hat viele Nutzer kalt erwischt, regelrecht vor den Kopf gestoßen, war Gnome doch in der letzten Dekade vor allem für kontinuierliche Entwicklung bekannt. Wer jedoch jetzt von Gnome 2 auf 3 umsteigt, erlebt sein blaues Wunder. Der bisherige Desktop ist passé, die Gnome-Shell kommt mit neuen Ideen und Konzepten. Die Bedienung hat sich fundamental geändert, der Nutzer bekommt zwar einen geschmeidiger wirkenden Desktop mit modernerem Touch, paradoxerweise gleichzeitig mit eingeschränkterer Funktionalität. Das hat zur Folge, dass Gnome inzwischen innovativer und mutiger wirkt als z.B. KDE, das im direkten Vergleich auf einmal wieder ganz klassisch erscheint. Mittlerweile haben alle gängigen Distributionen auf Gnome 3 umgestellt, der Rest wird in absehbarer Zeit Gnome 2 entfernen.

    Auch Ubuntu schasste das alte Gnome-Design, wechselte jedoch nicht direkt zu Gnome 3, sondern wagte mit Unity etwas ganz Neues, baut dabei nun aber indirekt auf Gnome 3 auf, so dass sich Gnome 2 auch hier nicht optional weiternutzen lässt. Zu allem Übel sind sich Gnome 3 und Unity in der Umsetzung auch noch sehr ähnlich, so dass Unity ebenfalls keine echte Alternative für die Anhänger des klassischen Desktops darstellt. Zudem handelt es sich bei Unity auch noch um eine Insellösung – abseits von Ubuntu ist Unity derzeit höchstens experimentell zu finden, ein Einzug in andere Distributionen erscheint unwahrscheinlich.

    Linux Mint auf Rang 1 bei Distrowatch

    Nichtsdestotrotz gibt es viele Nutzer, die an den alten Paradigmen hängen, ihre Arbeitsabläufe darauf eingestellt haben und keinen Grund sehen, sich davon zu lösen, kurz gesagt, die Gnome 2 perfekt fanden – und von ihrem bisherigen Lieblingsdesktop nun im Regen stehengelassen wurden. Dass es von diesen Anwendern nicht gerade wenig gibt, darauf könnte der Umstand hinweisen, dass es Linux Mint – das vorerst bei Gnome 2 blieb – in den letzten Monaten gelang, Ubuntu zumindest in der Distrowatch-Wertung von Platz 1 zu verdrängen. Diesen Nutzern bleiben nun 3 Möglichkeiten: a) sich an die Gnome-Shell gewöhnen, b) versuchen, die Gnome-Shell wieder in ein Gnome 2 zu verwandeln – oder c) sich Alternativen suchen.


    Der Mint-Desktop, hier noch in der Gnome-2-Version

    Möglichkeit A ist die schlechteste von allen Optionen, wenn man sich eben gerade nicht umgewöhnen möchte oder am Konzept von Gnome 3 keinen Gefallen gefunden hat. Sicher, lernen kann man alles, und die Gnome-Community setzt „derzeit alles daran, über Erweiterungen die im Urzustand spartanische Desktopumgebung um altbekannte Funktionen zu ergänzen und somit zu Möglichkeit B zu gelangen. Hierbei spielt wiederum Linux Mint eine Vorreiterrolle, indem es Gnome 3 nicht im Originalumfang ausliefert, sondern viele Erweiterungen, die das klassische Aussehen und die traditionellen Elemente annähernd wiederherstellen, vorinstalliert und aktiviert. Es bleibt jedoch die Frage, weshalb man sich einen als umständlich empfundenen Desktop erst zurechtbiegen soll – was meist eben doch nicht zum erhofften Ergebnis führt, oft müssen Kompromisse eingegangen werden – wenn auch Alternativen bereitstehen, die den eigenen Vorstellungen von einem Desktop womöglich eher entsprechen. Schauen wir daher auf Möglichkeit C, die Alternativen.

    Gnome 2 & Forks
    Natürlich kann man das alte Gnome einfach weiterhin benutzen. Das Weiternutzen von Gnome 2 ist theoretisch noch eine ganze Weile möglich. Debian stable, CentOS und einige andere Distributionen kommen standardmäßig noch mit Gnome 2 im Gepäck. Doch es ist absehbar, dass diese Unterstützung im Laufe der Zeit enden wird. Panel und Nautilus samt Desktop, die beiden Primärkomponenten des alten Gnomes, werden auch darüber hinaus weiterhin verfügbar sein, aber man wird sich selbst um deren Installation kümmern müssen. Eine parallele Nutzung von Gnome 2 und 3 ist jedoch nicht ohne Weiteres möglich, so dass eine Nutzung bei auf Gnome 3 getrimmten Distributionen de facto ausscheidet. Auf den typischen Anwender-Distris wie Suse, Fedora, Ubuntu und vielen weiteren ist Gnome 2 somit bereits endgültig Vergangenheit. Und wer reitet schon gern auf toten Pferden?

    Zukunftssicherer erscheint die Fortführung des Gnome-2-Desktops unter dem Namen „Mate“. Hier wird zurzeit versucht, den alten Gnome-Desktop fit für die Zukunft zu machen, so dass er auch neben Gnome 3 betrieben werden und somit leichteren Eingang in die Distributionen finden kann. Im Moment erreicht der Mate-Desktop jedoch noch nicht den vollen Umfang des ehemaligen Gnome 2. Doch Mate ist bereits nutzbar und regulär etwa im Paketumfang von wiederum Linux Mint enthalten.


    Mate, augenzwinkernd laut Selbstbeschreibung ein „nicht-intuitiver, unattraktiver Desktop für Nutzer, die eine traditionelle Computerdarstellung bevorzugen.“

    Einen weiteren Ansatz verfolgt Glasens Blog, das den Fallback-Modus von Gnome 3 als Ausgangsbasis für ein nachempfundenes Gnome 2 nutzt, aus dem im Grunde das klassische Gnome-Panel wiederaufersteht. Welche Zukunftschancen dieses Projekt hat, sofern die Distributionen den Rückfallmodus irgendwann nicht mehr anbieten sollten, steht jedoch auch noch in den Sternen.

    KDE
    Als Alternative zu Gnome 2 bietet sich natürlich auch KDE an. Eigentlich stets als „Rivale“ von Gnome wahrgenommen, ist es nach dem 4.0-Desaster längst wieder brauchbar geworden und bietet trotz innovativem Design und modernem Antlitz viel klassische Desktopfunktionalität. Statt zu Gnome 3 wäre also auch ein Wechsel zu KDE 4 keine schlechte Idee, wenn man weiterhin in der gewohnten Art arbeiten möchte. Das „Problem“ bei dieser Lösung sind allein die Programme. KDE nur als reinen Desktop zu nutzen und weiterhin mit den bisher gewohnten Gnome-Programmen zu arbeiten, ist zwar möglich, aber wenig sinnvoll. Denn KDE spielt sein Potential nur aus, wenn man sich auch den KDE-Programmen anvertraut. Doch genau dies scheuen viele alte Gnome-Fans, da KDE-Programme eben doch etwas anderes sind als Gnome-Anwendungen. Das „look and feel“ ist ein ganz anderes.


    Traditioneller Gnome-2-Desktop bei OpenSUSE …


    … und neumodischer Gnome-3-Desktop

    XFCE & LXDE
    Hinter diesen beiden Desktops steht nicht so eine große Entwicklergemeinde wie hinter Gnome und KDE, doch sie werden stets als erste Alternative genannt, wenn es gilt, Gnome-2-Funktionalität ohne Gnome zu verwirklichen. Der Grund dafür ist, dass die beiden Desktops wie auch Gnome auf das GTK-Toolkit aufbauen, die Programme „fühlen“ sich also sehr ähnlich an, sehen idealerweise ähnlich aus und lassen sich ähnlich bedienen. Auch Gnome-Programme integrieren sich dadurch fast immer nahtlos in die beiden kleineren Desktops Sowohl XFCE als auch LXDE bleiben dabei dem klassischen Desktopdesign verhaftet, Experimente wie bei der Gnome-Shell oder Unity sind hier nicht zu erwarten. LXDE und XFCE bieten also den Vorteil, die gewohnten Gnome-Programme gegebenenfalls einfach weiternutzen zu können, ohne dabei die klassische Bedienweise des Desktops aufgeben zu müssen. Doch auch für sich genommen bieten beide Umgebungen einen nahezu vollwertigen Gnome-2-Ersatz – mit Desktopfläche, Icons, Umschaltern, Panel, Panel-Applets und allem anderen, was dazu gehört. Das XFCE-Panel ist sogar noch flexibler als das von Gnome 2, ein besonderer Clou ist, dass über ein Plugin die alten Gnome-Applets dort integriert werden können. Der britische Register etwa empfiehlt seinen Lesern XFCE als Gnome-2-Nachfolger, Linux Torvalds hat schon gewechselt. Nur, sich zwischen XFCE und LXDE zu entscheiden, das kann wiederum eine schwierige Angelegenheit werden.

    Gnome-Programme & Fenstermanager
    LXDE und XFCE können beide das derzeitige GNOME 2 annähernd perfekt nachbilden: jeweils eine Leiste oben und unten, Symbole auf dem Desktop, GTK-Stile – alles kein Problem. Doch an der Kernkomponente, dem Dateimanager Nautilus, der unter Gnome 2 auch für den Desktop an sich verantwortlich war, hapert es dann zum Beispiel. XFCEs Nautilus-Nachbau Thunar bleibt hinter den Fähigkeiten von Nautilus deutlich zurück, wer sich an „Tabs“ gewöhnt hat, kommt mit Thunar nicht mehr zurecht. LXDEs „PCmanFM“ ist wiederum noch etwas wackelig und hat ein paar andere Eigenarten wie z.B. erzwungenes Tab-Browsing.

    Zerpflücktes Gnome-Logo

    Was also liegt näher, als die gewohnten Gnome-Programme einfach weiterhin zu benutzen, aber nur auf die Gnome-Shell zu verzichten? Man nutzt einfach „Gnome pur“ ohne die Shell, denn die Gnome-Programme an sich laufen selbstverständlich auch ohne diese. Gnome 3 ohne Gnome-Shell ist ohne Weiteres möglich, man braucht dann lediglich einen Ersatz für die Gnome-Shell, also einen Fenstermanager und ein alternatives Panel. Ubuntu macht mit Unity im Grunde nichts anderes. Die Formel lautet also: beliebiger Fenstermanager + eigenes Panel + Nautilus = Gnome-2-ähnlicher Desktop. Damit kommt man dem ehemaligen Gnome 2 in Aussehen und Bedienung am nächsten und muss auch nicht fürchten, dass in Zukunft einfach wieder jemand den Stecker zieht, da man flexibel bleibt.

    Als Fenstermanager für einen Gnome-2-Nachbau eignet sich am besten Openbox. Es gibt natürlich auch noch IceWM, Fluxbox und viele andere, doch diese empfehlen sich eher, wenn man auf höhere Geschwindigkeiten oder spezielle Funktionen abzielt. Openbox hingegen ist in der Grundkonfiguration dem unter Gnome 2 verwendeten Fenstermanager „Metacity“ bereits sehr ähnlich, es verhält sich fast identisch, außerdem bringt Openbox praktischerweise auch gleich eine passende Auswahl von Fensterrahmen mit, die man bereits von Gnome 2 kannte. Als Panel bieten sich das handliche „Fbpanel“ oder das Panel von LXDE („lxpanel“) an, da diese auf GTK aufbauen und ähnlich funktionieren wie das alte Gnome-Panel. Sogar die von Gnome 2 bekannte Dreiteilung des Anwendungsmenüs lässt sich bei diesen Panels mit ein wenig Bastelei nachbilden.


    Openbox-Fensterrahmen: Clearlooks, Human, Industrial und Mist

    Auf diesem Wege kommt man wieder zu seinem präferierten klassischen Gnome. Diese Lösung hat jedoch den Nachteil, dass sie vom Aufwand her noch zeitintensiver ist als das Auf-, Ab- und Umrüsten der Gnome-Shell, da nicht nur Erweiterungen installiert, sondern Fenstermanager, Panel und Einzelprogramme separat konfiguriert und aufeinander abgestimmt werden müssen. Das ist deutlich umständlicher als der Wechsel etwa zu XFCE/LXDE, Lohn für die Mühen ist jedoch ein nahezu perfektes Gnome-2-Feeling. Auch in Zukunft muss man also nicht auf seinen klassischen, gewohnten Desktop mit gewohnter Bedienung verzichten. Unter Linux ist nichts unmöglich – auch kein Gnome ohne Gnome 3.


    Dieser Artikel ist Bestandteil der „Not my Desktop“-Reihe.
    Bereits erschienen:

    Wird GNOME wieder zum Zwerg?
    Eine Woche Gnome 3: Der uniformierte Desktop
    Strategien zur GNOME-3-Vermeidung
    Gnome-Shell – es wird immer unübersichtlicher

    2. Dezember 2011

    FripperyApplicationsMenuIch habe gerade bei picomol.de gelesen, dass es für die Gnome Shell jetzt Erweiterungen gibt. Diese können jetzt direkt über die Seite extensions.gnome.org installiert werden. Hierzu wird einfach der aus den Gnome Shell Menüs bekannte Schieberegler betätig. Unter “Installed Extensions” werden alle installierten Erweiterungen angezeigt und lassen sich hier auch wieder deinstallieren.

    Mein Favorit ist das “Frippery Applications Menu“, welches ein Stück Gnome2 Komfort zurückbringt, in der linken oberen Ecke stellt es wieder ein “Anwendungen” Menü bereit. Das “Alternative Status Menu” stellt unter Anderem einen Shutdown Button im Statusmenü zur Verfügung.

    Die Seite befindet sich noch in der Alpha Phase und funktioniert nur mit Gnome 3.2 und Firefox, allerdings finden sich jetzt schon einige schicke und praktische Erweiterungen.


    Ubuntu Logo 150x150Da es nun eine erste Alpha-Version von Ubuntu 12.04 gibt, war ich neugierig und habe mir die 64-Bit-Version kurz angeschaut. Ab 12.04 ist das ja die empfohlene Desktop-Ausgabe. Das hier ist alles andere als ein ausführlicher Test. Einfach nur ein paar Screenshots, um einen ersten Eindruck zur kommenden LTS-Variante von Ubuntu zu vermitteln.

    Ich habe das System als Live-Version von einem meiner älteren USB-Sticks laufen lassen.  Das Ubuntu Software Center ist mir zunächst einmal mit einem Fehler abgestürzt, hat sich dann aber doch entschieden, zu laufen. Soll keine Beschwerde sein, eine Alpha-Version darf das. Was mir aber aufgefallen ist, dass das Betriebssystem recht schnell reagiert. Man kann es durchaus als flott bezeichnen.

    Unity lässt sich auch mit der Tastatur schnell bedienen und so weit ich gesehen habe, sind die Shortcuts gleich geblieben. Nun aber genug Blabla und viel Spaß mit den ersten visuellen Eindrücken! (Um die Bilder zu vergrößern – einfach draufklicken)

    Ubuntu 12.04 LTS Precise Pangolin ausprobieren

    Probieren geht über installieren

     

    Ubuntu 12.04 LTS Precise Pangolin Desktop

    Der Desktop

     

    Ubuntu 12.04 LTS Precise Pangolin Applikationen Internet

    Internet-Applikationen

     

    Ubuntu 12.04 LTS Precise Pangolin Software Center

    Ubuntu Software Center

     

    Ubuntu 12.04 LTS Precise Pangolin Ubuntu One

    Cloud: Ubuntu One

     

    Ubuntu 12.04 LTS Precise Pangolin Ubuntu One

    Cloud: Ubuntu One mit fünf GByte freiem Speicher

     

    Ubuntu 12.04 LTS Precise Pangolin Firefox 9

    Firefox 9

     

    Ubuntu 12.04 LTS Precise Pangolin Thunderbird 9

    Thunderbird 9

     

    Ubuntu 12.04 LTS Precise Pangolin Systemeinstellungen

    Systemeinstellungen

     

    Ubuntu 12.04 LTS Precise Pangolin Dashboard

    Dashboard

     

    Ubuntu 12.04 LTS Precise Pangolin Soziale Netzwerke

    Soziale Netzwerke

     

    Ubuntu 12.04 LTS Precise Pangolin Rythmbox Brasero

    Rythmbox und Brasero

     

    Ubuntu 12.04 LTS Precise Pangolin Hintergründe

    Hintergründe

     

    Ubuntu 12.04 LTS Precise Pangolin Shotwell

    Bildverwaltung mit Shotwell

     

    Ubuntu 12.04 LTS Precise Pangolin Suchen und Finden

    Suchen und Finden

     

    Ubuntu 12.04 LTS Precise Pangolin Installieren

    Installieren


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Es hat diesmal ein bisschen länger gedauert, aber Vorabversion Nr. 4 ist nun da, für alle, die nicht direkt aus dem Kernel-Git kompilieren wollen.

    Von der Anzahl der Änderungen her wurde es nicht mal so viel weniger, betrachtet man jedoch die Zahl der Commits und der betroffenen Dateien sieht es allerdings nach etwas Beruhigung aus. Was hat sich getan? btrfs wurde mit Fehlerkorrekturen bedacht, ebenso die ARM-Architektur. Passend dazu wurde auch der Exynos-DRM-Treiber verbessert, der die Grafik-Komponente von Samsungs gleichnamiger ARM-basierter System-On-Chip-Plattform ansteuert.

    Wenn sich die Entwicklung weiterhin beruhigt könnte dieses Jahr vielleicht wieder ein Kernel unter dem Weihnachtsbaum kompilieren, wie schon drei Jahres zu vor. Andererseits kann in drei Wochen einiges drin sein - drei weitere Vorabversionen mit unerwarteten Problemen ebenso wie ein plötzliches Versiegen des Patch-Stromes.

    Eine kleine Statistik:

    Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen
    3.2-rc1 10 730 12 103 1 628 188 1 406 364
    3.2-rc2 324 287 3694 2859
    3.2-rc3 467 451 3847 3319
    3.2-rc4 255 248 3519 2126

    Die großen Zahlen zu Beginn des Entwicklungszyklus sind normal, das sind die Änderungen, die während des Merge Window aufgenommen werden. Im weiteren Verlauf kann man dann an der Zahl der Commits in etwa abschätzen inwiefern eine Beruhigung eintritt.

    Quelle: Linux Kernel Mailing List

    QEMU Logo 150x150Ganz nach Zeitplan wurde QEMU 1.0 veröffentlicht. Laut offizieller Ankündigung ist eine der für den Anwender sichtbarsten Änderungen die Unterstützung für SCSI-Block-Geräte inklusive “Block Device Passthrough”. Das bedeutet im Klartext, dass /dev/sda-Geräte unterstützt werden. Dies sollte nach eigener Aussage in diversen Migrations-Szenarien hilfreich sein.

    Weiterhin ist TCI (Tiny Code Interpreter) nennenswert. Somit lässt sich QEMU auf Architekturen betreiben, auf denen kein nativer Code für QEMU erzeugt werden kann. Aus diesem Beitrag ist zu entnehmen, dass QEMU bisher nur auf den meist benutzten Architekturen wie x86, ARM, MIPS, S390 und Sparc gelaufen ist. TCI erzeugt keinen nativen Code, sondern Bytecode, der dann auf dem entsprechenden Host genutzt werden kann. Somit ist es unabhängig vom Host, auf dem QEMU läuft. Ohne native Code büßt QEMU natürlich etwas Geschwindigkeit ein.

    Sie finden alle Änderungen und Neuerungen im Changelog von QEMU 1.0. Die Änderungen sollten laut Aussage der Entwickler bald mittels qemu-kvm in der eigens eingesetzten Linux-Distribution verfügbar sein. Wer nicht so lange warten möchte, kann den Quellcode aus dem Download-Bereich der Projektseite herunterladen.


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Weihnachtsstimmung. Man kommt nicht drumherum und muss all die Dinge wie Real-Life-Theming, Räuchermännchenemissionen und Zahngesundheitsgefährdendes genießen. Deshalb wird man natürlich auch hier nicht verschont und darf sich über eine Neuauflage der beliebten Pinguin-Weihnachtshintergründe freuen. Pünktlich einen Tag nach dem 1. Dezember und 5 Tage nach dem 1. Advent gibt es dieses Jahr zwei neue Motive unserer Serie “Ho-ho-Hintergrundbilder” sowie eine Neuauflage eines älteren Motivs in neuen Größen:


    Downloadseite:
    Ho-ho-Hintergrundbilder


    Die Pinguinzubehör-Crew wünscht allen Nutzern mit geschnäbelten und weniger geschnäbelten Betriebssystemen eine schön stressige schöne Adventszeit!


    Siehe auch: Mit 3 Klicks zum adventlichen Linux-Desktop

    Vor kurzem habe ich ja bereits über Syslog geschrieben. Jeder der schon mal einen Server in den weiten des Internets betrieben hat (damit meine ich nicht zu Hause im eigenen Netzwerk), der weiss, wie schnell es geht, bis die ersten Bots und Kiddies mit endlosen Versuchen probieren, das SSH-Passwort zu knacken.
    Für Linux-Distributionen wie Ubuntu, Debian, RedHat oder was auch immer gibt es unzählige Tools und Applikationen, welche helfen entweder den SSH-Zugriff zu verstecken, oder aber zu verteidigen.

    Beides gibt es leider nicht bei meinem ESXi Server. Noch nicht mal eine anständige iptable oder hosts.deny sind vorhanden, geschweige denn von einer Firewall, wie es bei ESX Standard ist.

    Um jedoch mal zu sehen, wie viele Personen versuchen, mein SSH zu knacken, habe ich ein einfaches kleines Script für Nagios geschrieben.

    Ich weiss es kann noch viel optimiert werden dabei, doch es erfüllt seinen Zweck:

    #!/bin/bash
    
    # ####################################################################
    # Check Syslog /var/log/SPLVS002.log for Brute Force Attacks via SSH
    # by Patrick Schmid
    # Version 1.0
    ######################################################################
    
    export STATE_OK=0
    export STATE_WARNING=1
    
    time=`date +%H.%M.%S |cut -d'.' -f1`
    time=`echo $time|sed 's/^0*//'`
    time2=$(( $time - 1))
    time3=$(( $time - 2))
    
    if [ $time -lt 10 ]; then
            time=0$time
    fi
    
    if [ $time2 -lt 10 ]; then
            time2=0$time2
    fi
    
    if [ $time3 -lt 10 ]; then
            time3=0$time3
    fi
    
    compare=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f3`
    compare=`echo $compare | cut -d' ' -f1`
    
    if [ $compare -lt 10  ]; then
            attackers=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f4,14 |cut -d':' -f1,2,3 |sed -e 's/://' | tee -a |sed -e 's/://' |tee -a |grep "^$time\|^$time2\|^$time3" |cut -d' ' -f2 |sort |uniq`
            computers=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f4,14 |cut -d':' -f1,2,3 |sed -e 's/://' | tee -a |sed -e 's/://' |tee -a |grep "^$time\|^$time2\|^$time3" |cut -d' ' -f2 |sort |uniq |wc -l`
            attemps=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f4,14 |cut -d':' -f1,2,3 |sed -e 's/://' | tee -a |sed -e 's/://' |tee -a |grep "^$time\|^$time2\|^$time3" |cut -d' ' -f2 |sort |wc -l`
    else
            attackers=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f3,13 |cut -d':' -f1,2,3 |sed -e 's/://' | tee -a |sed -e 's/://' |tee -a |grep "^$time\|^$time2\|^$time3" |cut -d' ' -f2 |sort |uniq`
            computers=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f3,13 |cut -d':' -f1,2,3 |sed -e 's/://' | tee -a |sed -e 's/://' |tee -a |grep "^$time\|^$time2\|^$time3" |cut -d' ' -f2 |sort |uniq |wc -l`
            attemps=`tail -300 /var/log/SPLVS002.log |grep "from" |grep "root" |grep "attempt" | cut -d' ' -f3,13 |cut -d':' -f1,2,3 |sed -e 's/://' | tee -a |sed -e 's/://' |tee -a |grep "^$time\|^$time2\|^$time3" |cut -d' ' -f2 |sort |wc -l`
    fi
    
    [ "$attackers" ] && echo -e "$attemps attemps from $computers attackers\n$attackers"
    [ "$attackers" ] || echo "No Attack running"
    
    [ "$attackers" ] && exit $STATE_WARNING
    [ "$attackers" ] || exit $STATE_OK

    Und schon sieht man in Nagios selbst, was so abgeht:

    So dann weiter im Konzept! Es gibt zwar keine Möglichkeit, Angreifer aussperren oder ähnliches, jedoch aber kann man verhindern, dass das Passwort erraten werden kann, indem man das Login mit einem zusätzlichen Zertifikat schützt. Wie das geht, lest ihr in den folgenden Zeilen!

    Zuerst wird ein Key generiert, mit ssh-keygen.
    Nun kann der Public-Key kopiert werden, denn dieser muss auf den ESX wie folgt eingefügt werden:

    mkdir /.ssh
    touch /.ssh/authorized_keys
    chmod 0600 -R /.ssh
    echo "ssh-rsa KEY_HIER_EINFÜGEN" >> /.ssh/authorized_keys
    

    Nun kann man das Login schon mal prüfen. Hier sollte man bereits mit dem Key einloggen können.

    Jetzt wird das ganze noch abgesichert, damit es auch einen Reboot übersteht. Einfach den obigen Part in die Datei /etc/rc.local einfügen und abspeichern.
    Und zu guter Letzt wird noch das Login ohne Zertifikat deaktiviert. Dazu wird in der Datei /etc/inetd.conf den beiden Punkten “ssh” der Parameter -s angefügt:

    ssh      stream   tcp   nowait   root   /sbin/dropbearmulti   dropbear ++min=0,swap,group=shell -s -i -K60
    ssh      stream   tcp6  nowait   root   /sbin/dropbearmulti   dropbear ++min=0,swap,group=shell -s -i -K60
    

    Von nun an ist ein Login nur noch mit Zertifikat möglich, wodurch auch die lästigen Bots ausgebremst werden.


    Das könnte dich auch interessieren:

    1. Syslog Server für ESXi Nach dem ich entdeckt hatte, dass der ESX so intelligent...
    2. ESXi sichern auf FTP Vor einiger Zeit hatte ich die Aufgabe ein Backup-Konzept für...
    3. Vmware Image für ESXi aufbereiten Für eine Analyse gab es diese Woche eine Installation von...

    1. Dezember 2011

    Ubuntu Logo 150x150Mit einem Zitat von Henri Cartier-Bresson hat Kate Stewart die erste Alpha-Version des präzisen Schuppentiers angekündigt: “To photograph is to hold one’s breath, when all faculties converge to capture fleeting reality. It’s at that precise moment that mastering an image becomes a great physical and intellectual joy.”

    Mit Freude stelle man einen ersten Satz Entwickler-Abbilder, die die im Zitat genannte flüchtige Realität festhalten sollen: Ubuntu 12.04 LTS Alpha 1. Allerdings weist Kate Stewart dann auch sofort darauf hin, dass sich Vorausgaben nicht für Menschen eignen, die ein stabiles Betriebssystem benötigen. Wer allerdings Spaß am Testen hat, mithelfen möchte oder Entwickler ist, darf gerne eine Runde mitspielen.

    Wer von Ubuntu 11.10 auf die Alpha-Version aktualisieren möchte geht folgendermaßen auf dem Desktop vor: Alt+F2 drücken und dann update-manager -d abfeuern. Nun sollte sich der Update-Manager öffnen und Ihnen mitteilen, dass eine neue Ausgabe – 12.04 – verfügbar ist.

    Alpha 1 enthält Linux-Kernel 3.2.0-2.5, der auf dem dritten Release-Kandidaten des Vanilla-Kernel basiert. Dadurch unterstützt die Distribution auch ALPS Touchpads. Ebenso wurde die Geschmacksrichtung amd64 mit der “generic” fusioniert – wir sprechen immer noch von Kernel. Dieser Schritt soll den Wartungs-Aufwand der LTS-Ausgabe (Long Term Support) minimieren. Es macht vor allen Dingen Sinn, weil es ja nun auch für die Desktop-Ausgabe fünf Jahre Unterstützung gibt.

    Ebenso ist zu vermerken, dass die Entwickler in Sachen Banshee einen Rückzieher gemacht haben. Als Audio-Abspieler der Wahl dient nun wieder Rhythmbox.

    Ubuntu 12.04 LTS Precise Pangolin

    Rythmbox statt Banshee

    16 Fotos

    Alpha 1 ist der erste Meilenstein in einer Serie an CD-Abbildern, die im Ausgabe-Zyklus von Precise veröffenticht werden. Alpha-Ausgaben sind in der Regel nicht frei von Fehlern, aber ohne Showstopper im Installations-Prozess. Gleichzeitig gibt es auch erste Alpha-Versionen von Ubuntu Server Cloud und EC2, Xubuntu, Edubuntu und Lubuntu. Eine erste Vorab-Version von Kubuntu wurde in der Ankündigungs-Mail nicht erwähnt. Mit Ubuntu 12.04 LTS empfiehlt Canonical auch die 64-Bit-Variante als erste Wahl:


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter

    Nach dem ich entdeckt hatte, dass der ESX so intelligent ist und seine Logs standardmässig auf einer RAM-Disk speichert, musste natürlich eine andere Lösung her. Kann ja nicht sein, dass die Logs nach einem Ausfall einfach nicht mehr vorhanden sind.
    Somit habe ich mich für eine zentrale Logspeicherung mit Syslog entschieden.

    Da ich sowas noch nie eingerichtet hatte, war ich mir nicht ganz sicher, was auf mich zu kommen würde. Nun aber kann ich sagen, schreckt nicht davor zurück! Das Einrichten geht schnell und einfach und der Gewinn daraus ist enorm.

    Auf meinem Ubuntu Server habe ich mich für syslog-ng entschieden, welches problemlos über die Paketquellen installiert werden kann:

    apt-get install syslog-ng
    

    Nun muss die Konfiguration unter /etc/syslog-ng/syslog-ng.conf angepasst werden.
    Eingefügt habe ich die folgenden Punkte für jeweils einen ESX und einen normalen Ubuntu-Server:

    source s_udp
    {
            udp(port(514));
    };
    
    destination d_server1 {
            file("/var/log/server1.log");
    };
    
    filter f_server1 {
            host("192.168.1.45");
    };
    
    log {
            source(s_udp);
            filter(f_server1);
            destination(d_server1);
    };
    
    destination d_server2 {
            file ("/var/log/server2.log");
    };
    
    filter f_server2 {
            host("192.168.1.23");
    };
    
    log {
            source(s_udp);
            filter(f_server2);
            destination(d_server2);
    };
    

    Somit sei es den beiden Hosts mit der Adresse 192.168.1.23 und 192.168.1.45 über den Port UDP/514 erlaubt, Daten an den Syslog-Server zu senden, welche jeweils unter /var/log/server1.log und server2.log abgelegt werden.

    Noch neustarten und gut ist:

    /etc/init.d/syslog-ng restart
    

    Nun geht es weiter auf den zu überwachenden Servern!
    Hier fügt man folgende Zeile in die Konfiguration unter /etc/syslog.conf ein:

    *.* @192.168.1.25
    

    192.168.1.25 ist dabei natürlich die IP des Syslog-Servers. Aktuell wird hier alles geloggt, was so auf der Maschine abgeht. Wer das ganze noch genauer spezifizieren will, der findet entsprechende Parameter bei Google.
    Auch hier ist noch ein Neustart nötig und schon sind die entsprechenden Infos auf dem Syslog-Server ersichtlich:

    /etc/init.d/sysklogd restart
    

    Auf dem ESX Server kann der Syslog-Server über den vSpehre-Client gesetzt werden. Einfach unter “Configuration” > “Advanced Settings” > “Syslog” > “remote” IP und Port eintragen.

    Und nun dürft ihr auch schon all die Kiddies und Bots bewundern, welche versuchen euer SSH-Passwort zu knacken ;)

    Nov 30 12:17:17 server1 sshd[11775]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:19 server1 sshd[11775]: Failed password for root from 180.227.218.245 port 34035 ssh2
    Nov 30 12:17:22 server1 sshd[11777]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:23 server1 sshd[11777]: Failed password for root from 180.227.218.245 port 34311 ssh2
    Nov 30 12:17:26 server1 sshd[11779]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:28 server1 sshd[11779]: Failed password for root from 180.227.218.245 port 34525 ssh2
    Nov 30 12:17:30 server1 sshd[11784]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:33 server1 sshd[11784]: Failed password for root from 180.227.218.245 port 34770 ssh2
    Nov 30 12:17:35 server1 sshd[11795]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:37 server1 sshd[11795]: Failed password for root from 180.227.218.245 port 35037 ssh2
    Nov 30 12:17:39 server1 sshd[11800]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:42 server1 sshd[11800]: Failed password for root from 180.227.218.245 port 35313 ssh2
    Nov 30 12:17:44 server1 sshd[11805]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:47 server1 sshd[11805]: Failed password for root from 180.227.218.245 port 35591 ssh2
    Nov 30 12:17:49 server1 sshd[11807]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:51 server1 sshd[11807]: Failed password for root from 180.227.218.245 port 35809 ssh2
    Nov 30 12:17:54 server1 sshd[11842]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:17:56 server1 sshd[11842]: Failed password for root from 180.227.218.245 port 36091 ssh2
    Nov 30 12:17:58 server1 sshd[11848]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    Nov 30 12:18:00 server1 sshd[11848]: Failed password for root from 180.227.218.245 port 36361 ssh2
    Nov 30 12:18:02 server1 sshd[11850]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=180.227.218.245  user=root
    

    Wer auch dem Abhelfen will, der soll sich mal das Tool denyhosts ansehen! Ansonsten ein sicheres Passwort, Zertifikate oder was ihr gerade lustig seid. Ideen gibts genug!


    Das könnte dich auch interessieren:

    1. ESXi sichern auf FTP Vor einiger Zeit hatte ich die Aufgabe ein Backup-Konzept für...
    2. Vmware Image für ESXi aufbereiten Für eine Analyse gab es diese Woche eine Installation von...
    3. Windows session credentials cannot be used to log into this server Ist der ESX-Server ans AD angebunden, so liegt es ja...
    4. SSL VPN gegen asoziale Firewalls Was tut man, wenn man hinter einer Firewall sitzt, die...
    5. NAT konfigurieren unter ESX(i) NAT ist so eine Sache. Unter Vmware Workstation sehr einfach...

    Matrix Teaser 150x150Sie können es einfach nicht lassen und denken immer noch, dass es niemand herausfindet. Es hat sich herausgestellt, dass viele Mobilfunkprovider ein Stück nicht deinstallierbare Software auf ihren Smartphones ausliefern. Das Ding nennt sich CarrierIQ. Dabei spielt es keine Rolle, ob man Android, BlackBerry oder iOS verwendet. Die Spyware wird einfach überall eingesetzt. Aber nicht alle Mobilfunkprovider gehören zu den Bösen und es gibt auch welche, die darauf verzichten.

    CarrierIQ ist im Prinzip ein rootkit das ausspioniert, wie Anwender das Gerät benutzen. Es zeichnet Tastenanschläge auf und alles mögliche an weiteren Informationen. Viele Versionen des rootkits schicken diese ausgeschnüffelten Informationen sogar an die Provider und diese haben dann ein schönes Nutzer-Profil.

    Herausgefunden hat das Trevor Eckhart, der daraufhin von CarrierIQ abgemahnt wurde (PDF), diese Infromation sofort wieder vom Netz zu nehmen. Allerdings hat Eckhart sofort Rückendeckung von der EFF (Electronic Frontier Foundation) bekommen. CarrierIQ hat darauf hin den Schwanz eingezogen und die Drohung wieder zurückgezogen.

    Bisher wurde CarrierIQ auf Android, BlackBerry und iOS gefunden. Auf letzterem werden allerdings weniger Daten gesammelt und es schickt auch nichts, solange “Diagnostics and Usage” deaktiviert ist (Standard). Dafür ist es per Standard auf jedem iOS-Gerät enthalten. Auf Windows Phone 7und Bada-Smartphones wurde die Schnüffelware bisher nicht gefunden. Nokia hat ausgesagt, dass auf keinem ihrer Telefone jemals CarrierIQ installiert war.

    Das ist wirklich übel. Welche Mobilfunkbetreiber das Ding einsetzen, geht nicht aus dem bericht hervor. Hoffentlich ist es nur so eine US-Angelegenheit. Smartphones aus dem Google-Nexus-Programm enthalten das rootkit nicht. Ebenso hat sich Verizon gemeldet, dass sie kein CarrierIQ einsetzen.

    Wer ausprobieren möchte, ob sein Android-Gerät “befallen” ist, sollte einfach Trevor Eckharts Logging Test App installieren und CIQ Checks drücken. Man kann davon ausgehen, dass es nach diesem Fund mächtig Ärger geben wird.


    Jürgen (jdo) für bitblokes.de, 2011. | Permalink | Twitter