ubuntuusers.de

10. Mai 2011

Brian Lunduke hat auf dem Linux-Fest Northwest wieder seinen "Why Linux Sucks"-Talk gehalten.

Verbesserungen

Brian sieht in vielen Bereichen Verbesserungen im Linux-Öko-System:

  • Das http://www.humblebundle.com/Humble Indy Bundle hat gezeigt, Spiele-Entwickler können auf der Linux-Plattform Geld verdienen - mehr als auf dem Mac.
  • Kommerzielle Software ist endlich über den Ubuntu Software-Center erhältlich.
  • Linux-Desktops sehen heute richtig gut aus.

Unity gut für Linux-Neulinge, nicht für Linux-Profis

Sein Verhältnis zu Unity scheint eher ambivalent zu sein: Unity ist sinnvoll für Neueinsteiger, aber für die bisherigen Nutzer ist es ein kleiner Schlag ins Gesicht.

Zu wenig Spitzensoftware unter Linux

Der größte Knackpunkt ist für Brian nach wie vor, dass es an (erstklassiger) Software für Linux fehlt.

Der Grund: es mangelt vielen freien Software-Projekten an Geld. Deswegen können die Entwickler sich leider nicht Vollzeit um die Projekte kümmern - was aber eigentlich notwendig wäre.

Brian nennt als Beispiele Standard-Software; wie die Audio-Software Ardour, die im Vergleich zu Garage-Band auf Mac OS X zu schwierig zu bedienen ist, und Video- und Bildbearbeitung.

Unterschiedliche Lösungsansätze

Hier nennt er unterschiedliche Lösungsansätze:

  • Sponsoring durch Unternehmen - der wahrscheinlich erfolgreichste Ansatz bei freier Software
  • Verkauf von Software mit Source-Code - gibt es das in der Praxis überhaupt?
  • Spenden - aber so, als müsste man sich die Software-Kaufen (So kann man die Spenden-Höhe berechnen)
  • klassische closed-source Software, evtl. mit freiem Preis - wie beim Humble Indy-Bundle

Seht euch das Video am besten selbst an. Brian versteht es, seine Aussagen prägnant auf den Punkt zu bringen.

Brian Lunduke hat auf dem Linux-Fest Northwest wieder seinen "Why Linux Sucks"-Talk gehalten.

Verbesserungen

Brian sieht in vielen Bereichen Verbesserungen im Linux-Öko-System:

  • Das http://www.humblebundle.com/Humble Indy Bundle hat gezeigt, Spiele-Entwickler können auf der Linux-Plattform Geld verdienen – mehr als auf dem Mac.
  • Kommerzielle Software ist endlich über den Ubuntu Software-Center erhältlich.
  • Linux-Desktops sehen heute richtig gut aus.

Unity gut für Linux-Neulinge, nicht für Linux-Profis

Sein Verhältnis zu Unity scheint eher ambivalent zu sein: Unity ist sinnvoll für Neueinsteiger, aber für die bisherigen Nutzer ist es ein kleiner Schlag ins Gesicht.

Zu wenig Spitzensoftware unter Linux

Der größte Knackpunkt ist für Brian nach wie vor, dass es an (erstklassiger) Software für Linux fehlt.

Der Grund: es mangelt vielen freien Software-Projekten an Geld. Deswegen können die Entwickler sich leider nicht Vollzeit um die Projekte kümmern – was aber eigentlich notwendig wäre.

Brian nennt als Beispiele Standard-Software; wie die Audio-Software Ardour, die im Vergleich zu Garage-Band auf Mac OS X zu schwierig zu bedienen ist, und Video- und Bildbearbeitung.

Unterschiedliche Lösungsansätze

Hier nennt er unterschiedliche Lösungsansätze:

  • Sponsoring durch Unternehmen – der wahrscheinlich erfolgreichste Ansatz bei freier Software
  • Verkauf von Software mit Source-Code – gibt es das in der Praxis überhaupt?
  • Spenden – aber so, als müsste man sich die Software-Kaufen (So kann man die Spenden-Höhe berechnen)
  • klassische closed-source Software, evtl. mit freiem Preis – wie beim Humble Indy-Bundle

Seht euch das Video am besten selbst an. Brian versteht es, seine Aussagen prägnant auf den Punkt zu bringen.

The post Why Linux Sucks Talk 2011 appeared first on Rockiger.

Wer die OpenSource Medien gestern oder heute verfolgt hat, dürfte ja schon mitbekommen haben, dass Nokia Qt 5 für nächstes Jahr angekündigt hat. Das hat natürlich auch Auswirkungen auf KDE. Um die Neuerungen von Qt 5 verwenden zu können, müssen wir gegen die neue Version linken, wodurch unsere KDE Platform eine binär inkompatible Änderung erhält. Die Folge davon ist recht logisch: KDE Plattform 5.

Für mich ist die Ankündigung von Qt 5 und dem daraus zwangsläufig folgendem KDE Plattform 5 keine Neuigkeit, besonders mit einem KDE 5 rechne ich eigentlich seit der Planung des “Plattform 11″ Sprint für die zukünftige Entwicklung der KDE Plattform. Dass nun Qt 5 kommt, ist da sehr passend. Sehr erfreulich ist auch das nun offenere Entwicklungsmodell von Qt sowie einem Qt Contributors Summit direkt nach Plattform 11. Auch bei Plasma haben wir bereits mit den Planungen begonnen mit libplasma2 und im Compositor und Window Manager planen und überarbeiten wir auch unsere APIs. Hier ist natürlich ein sich ankündigender ABI Bruch eine schöne Sache, da man besser planen kann und nicht den Bruch in der Laufzeit der KDE Plattform 4 bringen wird.
Ich persönlich freue mich auf diese neue Entwicklung, da ich bei der Entwicklung zu KDE 4 noch nicht dabei war und das eine sehr interessante Aufgabe ist. Das Designen einer guten API betrachte ich als große Kunst und eine der schönsten Disziplinen der Informatik. Daher freue ich mich darauf die Dekorations-API den modernen Anforderungen anzupassen.
Nun habe ich die ganze Zeit sehr bewusst von der “KDE Plattform” gesprochen. Die KDE-libs werden ihre Versionsnummer erhöhen, für Anwendungen und die Plasma Workspaces steht das aber noch nicht fest. Nach aktuellem (noch nicht wirklich existierendem) Planungsstand soll Qt 5 hauptsächlich neu kompilieren sein und natürlich wäre das auch für die KDE-Libs eine sehr schöne Lösung. Anwendungen und Plasma werden also einfach weiter funktionieren. Wir sind sehr zufrieden mit unserem aktuellen Stand und sehen keinen Bedarf erneut den Desktop zu brechen. Sehr schön hat auch Aaron diese Gedanken zusammengefasst. Ob das ganze dann KDE 5 heißt, weiterhin KDE 4 heißt oder einen ganz anderen Namen bekommt, ist aktuell noch völlig offen und noch nicht entschieden oder diskutiert.
Für mich ist es bei der Entwicklung – gerade auch in Hinblick auf Wayland – oberste Priorität den Desktop nicht zu brechen. Auch wenn es sich zeitlich anbieten würde mit KDE 5 auf Wayland zu setzen, werde ich solche Pläne nicht verfolgen. X11 wird für uns zumindest in nächster Zeit weiterhin eine wichtige Plattform sein.
P.S.: alle Kommentare wie fürchterlich KDE 4.0 war und dass sich sowas nie wieder wiederholen darf, werden konsequent moderiert. Das wissen wir selbst gut genug.

=-=-=-=-=
Powered by Blogilo

9. Mai 2011

Auch wenn ich Phoronix.com nicht unbedingt als seriöse Nachrichtenquelle ansehe, doch in dem folgenden Fall fasst Phoronix nur ein Protokoll des Ubuntu Developer Summit zu Unity 2D zusammen, weshalb man Phoronix.com in diesem Fall trauen kann.

What To Expect Of Unity 2D In Ubuntu 11.10

Ich liste hier einfach mal alle Punkte aus der Nachricht im Original auf:

  • A rule in developing Unity 2D will be to assume there is no GPU acceleration support, as to not design effects or other operations that are too taxing on the CPU.
  • A common library for settings between Unity and Unity 2D will be worked on so that schemas can be shared. Right now the Unity “3D” version is using CCSM, but it will be moving to GSettings.
  • Rather than using Metacity or any other non-accelerated window manager, Compiz will be used. While Compiz is commonly used as a compositing window manager for OpenGL / OpenGL ES, it does support different back-ends. Compiz can target X Render or even the CPU-based QPainter. A goal will be to use Compiz with a non-accelerated back-end as a new fall-back. With Unity 2D using Compiz as well, Metacity can be removed from the LiveCD, thereby slimming down the ISO size a bit as well (large discussions about hitting the 700MB CD ISO limit).
  • Falling back to the classic GNOME desktop in Ubuntu 11.10 will be eliminated.
  • Unity 2D will further minimize dependencies on X11 and GTK.

Am Interessantesten finde ich den dritten Punkt, dass Compiz auch unter Unity2D zum Einsatz kommen könnte, allerdings dann ohne die 3D-Effekte, sondern nur als reiner Fenstermanager.

Das bringt mich nun zu folgender These (und dem Titel des Artikels):

Wenn Unity2D auch mit Compiz funktionieren kann, warum stampft Canonical dann das Compiz-Plugin Unity nicht einfach ein und konzentriert sich vollständig auf das Qt-basierte Unity2D?

Canonical würde dadurch einer Reihe Probleme aus dem Weg gehen, wie z.B. die dann überflüssige Pflege und Wartung zweier Feature-identischer Produkte. Der Benutzer würde dann immer den gleichen Desktop präsentiert bekommen, egal ob seine Grafikkarte jetzt 3D-fähig ist oder auch nicht. Alles was am Ende fehlen würde, wären einige, weniger wichtige, grafische Effekte.

Das ist eine reine These meinerseits und basiert auf einem Gedankenspiel meinerseits.

Nachdem ich länger überlegt habe, ob ich mein System auf Natty Narwhal aktualisiere habe ich mich nun doch entschlossen einmal was anderes auszuprobieren.
Da mir Flash und anderes proprietäres Zeug in letzter Zeit immer wieder auf die Nerven ging, bin ich bei Trisquel GNU/Linux gelandet.

 

Der Hauptunterschied zwischen Trisquel und Ubuntu besteht darin, dass Trisquel keine proprietäre Software mitliefert. Somit fallen zahlreiche Pakete aus den Repositories von Trisquel, welche in Ubuntu vorhanden sind. Außerdem wurden auch proprietäre Kernelmodule aus dem System entfernt. Natürlich schränkt sich dadurch auch die Hardware-Unterstützung ein, doch in meinem Fall stellte dies kein Hindernis dar.

 

Interessanterweise wurde zwar das Firefox-Branding in Trisquel überschrieben (abrowser), doch OpenOffice.org wurde noch nicht durch LibreOffice ersetzt. Vermutlich liegt das daran, dass Trisquel derzeit noch auf Maverick Meerkat basiert. Im Web Browser ist übrigens auch standardmäßig eine Erweiterung namens FlashVideoReplacer installiert welche alternative Wiedergabeformate einsetzt, falls die jeweilige Website welche anbietet. Wenn der FlashVideoReplacer keine Alternative findet wird Gnash als Flash-Player gestartet.

 

So wie es derzeit aussieht bin ich mit Trisquel sehr zufrieden. Momentan habe ich Trisquel und Ubuntu noch parallel auf meinen Festplatten. Vielleicht werde ich aber in Zukunft kein Standard-Ubuntu mehr haben (je nachdem wie sich die beiden Systeme entwickeln…)

 

Zu guter Letzt noch ein Screenshot von meinem neuen Desktop direkt nach dem Setup:
Der Desktop

(Natürlich lässt sich das System auch in deutscher Sprache installieren!)

Ähnliche Posts:

  1. PHP-Code zur Erkennung des Betriebssystems unter Berücksichtigung der Ubuntu-Version in Firefox
  2. Wechsel von ubuntu-mozilla-daily auf die offiziellen Quellen

Nach (deutlich zu) langer Zeit habe ich es endlich geschafft eine aktualisierte Version “meiner” Version von Ubuntu zu bauen und hochzuladen. Diese Snapshot-Version beinhaltet alle bis zum 06.Mai 2011 veröffentlichten Sicherheits -und Bugfixupdates von Ubuntu 10.04. Die aktualisierte Fassung dient in erster Linie dazu bei einer Neuinstallation des Systems nicht erst einmal mehrere Dutzend MB an Updates herunterladen und installieren zu müssen, sondern gleich mit einem aktuellen System loslegen zu können.

Die Versionsnummer der CD entspricht zwar dem der Ubuntu-Version 10.04.2, der Stand der Updates ist aber einige Wochen aktueller (s.o.).

Die wichtigste Änderung der Live-CD sind die Versionsnummern meiner Pakete:

  • Der Intel-Treiber hat die Versionsnummer 2.15 erreicht.
  • Das DKMS-Paket hat die Versionsnummer 1.0 erreicht. Mit dieser Versionsnummer habe ich auch das experimentelle DKMS-Paket eingestampft, da der zurückportierte Bugfix aus Kernelversion 2.6.38 keine Auswirkungen auf die Geschwindigkeit der Grafikdarstellung mehr hat. Benutzer des experimentellen Pakets wurden schon vor ein paar Tagen automatisch per Metapaket auf die normale Version migriert.
Ubuntu 10.04.2 ist nur ein Snapshot des aktuellen Installationsstandes. Jeder der seine Ubuntu-Installation regelmäßig mit den Updates versorgt hat, ist auf dem Stand des Snapshots. Nur wer vorhat eine Neuinstallation vorzunehmen, benötigt die aktualisierten CDs.

Die aktualisierte ISO-Datei kann man unter dem folgenden Link finden :

Ubuntu ISO-Dateien

Übermorgen ist es soweit, Europas größte Veranstaltung rund um Linux und Open Source startet – der LinuxTag in Berlin. Wie in den vergangenen Jahren auch werde ich vor Ort sein. Schon in den vergangenen Jahren habe ich immer eTickets für diese Veranstaltung hier im Blog vergeben und so soll es auch dieses Jahr sein, ich habe noch einige Tickets übrig. Wer also ein 4Tages eTicket haben möchte, wie gehabt entweder hier in die Kommentare oder per Mail. Die Karten werden nach dem FIFO-Prinzip vergeben. Wenn sie dann alle vergeben sind, werd ich das dann hier verkünden.

Wie fast bei jedem neuen Desktop-System stellt auch Unity mich auf die Probe. Ich habe mich langsam mit der neuen Oberfläche und das damit verbundene Arbeiten vertraut gemacht, aber so einige Dinge aus dem “alten” Leben kann ich mir halt noch nicht abgewöhnen.

Alles links, ist wie Mark sagt, die Zukunft…

Anpassen des Desktop-Verhaltens

Beim Classic Desktop konnte ich wunderbar zwischen meinen verschiedenen Desktops umherschalten. Im Unity geht das grundsätzlich auch, jetzt sind aber Standart die 4 Desktops im Quadrat angeordnet. Das passt mir nicht und ich suchte die Einstellungen damit ich mein Desktop wieder nebeneinander hatte. Die Einstellungen kann man im “CompizConfig EinstellungsManager” vornehmen. Dazu geht man auf erweiterte Suche > Allgemeine Optionen > Desktop Grösse. Hier kann man seinen Desktop Horizontal und Vertikal einstellen.

Desktop Umschalter

Bevor ich Unity benutzte, konnte ich mit meiner Tastatur den Desktop mit 3 Tasten zu einem Würfel-Verhalten bringen. Das geht im Moment nicht mehr so gut und desshalb habe ich mich einmal auf die Standart-Umschaltung konzentriert. Zuerst ist einmal zu Bemerken, dass man nun im Launcher den”Arbeitsfläschenumschalter” hat. Mit diesem Icon kann man sich alle seine Desktops anzeigen lassen, so wie man diese wie vorher beschrieben konfiguriert hat. Geht man mit der Maus auf den gewünschten Desktop und klickt mit der rechten Maustaste darauf, wechselt man sofort auf den Desk. Das wechseln der Desk kann man auch einstellen und zwar in den Expo Einstellungen.

Je nachdem was man sich da verändern will, zoomt, fadet oder “vortexted” der Desktop beim Umschalten. So sieht die Umschaltung schon besser aus und ich kann mich jetzt daran gewöhnen. Einen kleinen Hauch von Räumlichkeit kann man sich auch noch erzaubern. Wenn man sich im Expo unter Appearance in der Deformation der Einstellung Curve annimmt, dann hat man das Gefühl seine Desktop stehen im Raum. Leider sind die Ränder etc. noch nicht so perfekt im Abschluss, aber für ein schnelles räumliches Umschalten genügt es.

Fazit

Die Anpassungen des Desktops im Unity lassen sich wunderbar verändern. Wenn man weiss wo sich die Einstellungen befinden, ist das Umschalten der Desktop mit Unity ein Kinderspiel. Vorallem das Umschalten mit der Maus macht für mich das Arbeiten mit Unity schneller und effizienter.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Gestern Abend habe ich auf meinem Arbeitslaptop Natty installiert. Habe es aber nicht mehr getestet.

Heute Morgen habe ich mit freudiger Überraschung festgestellt, dass es pro Monitor jeweils ein eigenes Panel gibt.

Das ist für mich echt eine Steigerung zu meinem alten Setup.

Ubuntu 11.04 mit einem Panel pro Monitor

 
 

8. Mai 2011

Vor ein paar Wochen war es soweit: der Quelltext von Communtu wurde veröffentlicht. Nachdem wir intensiv an der Fehlerbehebung und neuen Features gearbeitet hatten, hatten wir uns entschieden Communtu unter die AGPL zu stellen. Somit steht nun jedem interessierten Nutzer die Möglichkeit offen an Communtu mitzuentwickeln. Der Sourcecode ist bei github unter https://github.com/communtu/communtu zu finden und kann von dort aus direkt bezogen werden. Wir bitten vor der Installation die Readme-Datei zu lesen und uns bei Bedarf in unserem IRC-Channel #de-communtu auf irc.freenode.net direkt anzusprechen.

Wer möchte kann uns dieses Jahr auch auf den LinuxTag in Berlin besuchen, diskutieren und uns um Hilfe fragen wenn Schwierigkeiten mit der Benutzung der Communtu-Webseite auftreten. Wir haben, wie letztes Jahr, einen Gemeinschaftsstand (Halle 7.2a, Stand 106) mit der Ubuntu-Community zusammen. Wir freuen uns auf Euren Besuch!


    Seinen Ubuntu-Rechner fernsteuern ist in der heutigen Zeit nicht mehr so schwer.
    Was man dazu braucht ist ein Smartphone mit Android und ein WLAN.

    Installation

    Auf seinem Smartphone muss man nur die Anwendung URemoteDesktop installieren.
    Auf dem Computer muss man die Serveranwendung installieren. Diese benötigt Java, was auf jedem Rechner eigentlich installiert ist und notfalls aus den Quellen nachinstaliert werden kann.
    Außerdem muss noch das Programm xautomation installiert werden, welches sich auch in den Standard-Ubuntu-Quellen befindet.
    Die Serveranwendung kann von hier heruntergeladen werden (Direktlink)
    Nach dem entpacken müssen noch die Dateien ausführbar gemacht werden. Das geht mit

        $ chmod +x launch.sh
        $ chmod +x vd.sh

    Das Programm startet man mit:

    ./launch.sh

    Wenn man will, kann man auch einen Autostart-Eintrag anlegen, sodass man nicht immer das Programm starten muss.

    Benutzung

    URemoteDesktop

    URemoteDesktop

    Wenn der Server auf dem Computer gestartet ist, kann man die Fernbedienung benutzen. Einfach auf dem Smartphone die Anwendung starten. Zum verbinden braucht man die Lokale IP des Rechners, nachdem man auf Connect geklickt hat, ist alles fertig.
    Unter dem Reiter Music kann man das Standard-Musik Abspielprogramm steuern, Starten/Stoppen/Lied vor/Lied zurück und die Lautstärke sind steuerbar.
    Der Reiter Desktop ist vor allem für Präsentationen. LibreOffice und OpenOffice werden unterstützt. Neben nächster Folie/vorheriger Folie kann man auch im aktiven Fenster scrollen und den Desktop wechseln sowie den Bildschirm aus- und wieder anschalten.
    Im Reiter Type ist eine virtuelle Tastatur.

    Fazit

    Das Programm macht genau das, was es soll, allerdings auch nicht mehr. Es unterstützt alle Medienspieler, man kann aber nur in der aktuellen Wiedergabeliste wechseln. In der Bibliothek kann man nicht suchen.
    Ich würde sagen, diese Applikation ist vor allem für Präsentationen und um mal schnell vom Bett aus die Musik zu unterbrechen.
    Wer seinen HTPC damit steuern will ist mit XBMC und der dazugehörigen Fernbedienung sicherlich besser aufgehoben

    So nun sind die LinuxWochen in Wien gelaufen, es war schon stressig. Über den Andrang der Besucher, kann ich gar nicht mal so viel sagen, das ich ja meist selbst einen Workshop hatte. Gerade der Samstag war schon heftig, da ich von 11-14 Uhr einen Workshop hatte, um 14 Uhr einen Vortrag und um 15 Uhr schon wieder den nächsten Workshop. An Vorträgen selbst habe ich nur den q/talk am Freitag Abend über Open Data besucht. Im Anschluß gab es dann den Social Event mit Livemusik. Der Veranstaltungsort war dieses Jahr das Technikum Wien, welches auf jeden Fall tolle Möglichkeiten bietet. Der Platz für die Stände war besser und natürlich auch die Räumlichkeiten für die Vorträge und Workshops. In meinem Workshopraum gab es auch Rechner mit vorinstalliertem openSUSE und Inkscape/GIMP so das man an diesen Maschinen arbeiten konnte. Wenn ich das richtig verstanden habe, wird man auch nächstes Jahr am Technikum sein, was man nur hoffen kann.

    Meine Workshops waren mit zwischen 20 und 25 Teilnehmern gut besucht. Nur am Samstag die Wiederholung des GIMP-Workshop hatte mit 6 Leuten weniger Teilnehmer, was allerdings zu erwarten war. An der Stelle muss man sagen, ich scheine so etwas wie eine Fangemeinde in Wien zu haben, einige Leute waren nun schon das dritte Jahr in Folge in einem meiner Workshops und viele nehmen dann auch jeden mit, der angeboten wird. Sofern der Inhalt der Workshops wechselt. Erstaunlich an der Stelle ist, das die Inkscape-Workshops scheinbar mehr von Interesse waren als GIMP. Das ist hier in Deutschland sonst anders, da GIMP das kompliziertere Werkzeug ist, sind hier dessen Workshops schneller ausgebucht. Wahrscheinlich wäre es besser gewesen für die Veranstalter statt den einen GIMP Workshop zu wiederholen lieber einen weiteren Inkscape Workshop von den von mir eingereichten zu nehmen.
    Da jetzt die meisten Teilnehmer der Workshops die Inhalte in meinem Blog noch einmal suchen, hier noch mal die Links zu den Inhalten der Workshops:

    Heute gibt es mal wieder einen kleinen Android-Beitrag. Diesmal geht es um Jabber-Clients für Android. Ich habe davon einige ausprobiert, manche gefallen mir ganz gut, andere wiederum nicht. Hier möchte ich diese mal vorstellen. Welchen man bevorzugt ist sicher die Frage der Bedürfnisse und was einem optisch am besten gefällt.

    Meebo IM

    Mein aktuell verwendeter Client, da er irgendwie die stabilste Verbindung bietet und auch bei einem Netzwerkwechsel (WLan auf mobiles Netzwerk und zurück) nicht immer sofort abstürzt.
    Unterstützte Netzwerke: AIM, MSN, Yahoo, MySpace, Google Talk, Jabber, ICQ
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    IM+ / IM+ Pro

    Unter Symbian mein absoluter Lieblingsclient, unter Android nur mittelmäßig. Verbindungsabbrüche zum Jabber-Server bekommt man nicht immer mit, etwas besser mit der aktuellen Version, die neue Funktionen und ein überarbeitetes Design bietet. Qualitativ aber noch weit von der Symbian-Version entfernt. Bietet leider wenige Einstellungsmöglichkeiten.
    Unterstützte Netzwerke: Skype, Facebook, AIM, MSN/Windows Live Messenger, Yahoo!, ICQ, Jabber, Google Talk, MySpace
    Preis/Download: € 6,49 im Android Market, werbefinanzierte Version kostenlos
    App2SD: ja

    Slick messenger

    Nicht ausprobiert, da er mir schon rein optisch gar nicht gefällt. Werbefinanziert.
    Unterstützte Netzwerke: ICQ, AIM, Yahoo chat, MSN, Google talk, Jabber, Facebook chat
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    ReChat

    Optisch ganz okay, hat bei mir aber beim kurzen Testen sowohl im WLan als auch im mobilen Netzwerk oft die Verbindung verloren ohne, dass er mich darauf aufmerksam gemacht hat. Werbefinanziert.
    Unterstützte Netzwerke: Facebook, Yahoo!, Google Talk, MSN, Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Nimbuzz

    Nicht getestet, da es nur Google Talk unterstützt. Andere Jabber-Server sind nicht möglich.
    Unterstützte Netzwerke: Yahoo!, MSN, AIM, GoogleTalk, Facebook, ICQ, MySpace, Hyves
    Preis/Download: kostenlos im Android Market
    App2SD: ja

    Palringo

    Vor einiger Zeit mal getestet. Hat es leider nicht geschafft eine Verbindung länger als 5 Minuten zu halten. Außerdem wirkt die App recht langsam und schwerfällig.
    Unterstützte Netzwerke: Facebook, MSN, AIM, Yahoo, Google Talk, ICQ, Jabber, iChat / MobileMe, Gadu-Gadu
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    imo instant messenger

    Hier habe ich mal die Betaversion installiert. Sehr nette App, optisch ansprechend. Bietet reichlich Einstellungsmöglichkeiten wie Schriftgröße, an- und abschalten von Emoticons oder einer History. Hält auch bei Netzwerkwechseln die Verbindung. Wirkt allerdings am HTC Wildfire ein bisschen schwerfällig.
    Unterstützte Netzwerke: Facebook Chat, Google Talk, Skype, MSN, ICQ/AIM, Yahoo, Jabber, Myspace
    Preis/Download: kostenlos im Android Market (Beta-Version)
    App2SD: nein

    Xabber

    Reiner Jabber-Client, der unglaublich viele Einstellungsmöglichkeiten bietet. Unterstützt auch MUCs. Bei Netzwerkwechseln trennt der Client allerdings sofort die Verbindung. Positiv ist, dass er selbst wieder verbindet, was allerdings eine Weile dauert.
    Unterstützte Netzwerke: Google Talk, Facebook chat, LiveJournal, VKontakte, Ya.Online
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Jabiru

    Bietet viele Einstellungsmöglichkeiten, kann sich optisch aber noch ein bisschen Verbessern. Nach einem Netzwerkwechsel wird die Verbindung getrennt. Ein Reconnect dauert dann eine Weile.
    Unterstützte Netzwerke: Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Beem

    Reiner Jabber-Client, bietet nur wenig Einstellungsmöglichkeiten. Absenden kann man nur mit dem Send-Button, nicht mit dem Enter-Button der Tastatur. Bei Netzwerkwechsel stürzt die App komplett ab.
    Unterstützte Netzwerke: Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    yaxim

    Reiner Jabber-Client mit wenigen Einstellungsmöglichkeiten. App schließt sich beim Wechsel des Netzwerkes gelegentlich einfach mal kommentarlos.
    Unterstützte Netzwerke: Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Nachtrag: Ich wurde auf Twitter gefragt, wie es denn in Sachen Akkuverbrauch aussieht. Hier kann ich natürlich nur zu den Apps was sagen, die ich länger nutze und nicht nur mal getestet habe. In meinem Fall sind das IM+ Pro und Meebo: bei beiden Apps merke ich keinen besonders erhöhten Akkuverbrauch, wenn sie den ganzen Tag laufen.

    Wo ich allerdings unterschiede feststelle sind im Traffic. Meebo scheint hier wesentlich mehr zu verbrauchen als IM+. Zumindest meint das der Traffic Counter.

    {lang: 'de'}

    Nach einigen “Klickbunti”-Themen mal wieder ein kleiner Eintrag zur guten alten Shell ;-). Unter Linux kommt man ja fast nicht drum herum, mit dem Terminal und der Bash (Bourne-again shell) in Berührung zu kommen, deswegen ist man gut beraten, sich entsprechend zu wappnen. ;p Ein paar pfiffige Befehle, für das produktive Arbeiten mit der Bash, habe ich versucht hier zusammenzustellen…

    Einstieg - Grundbefehle lernen

    Wer gerade erst mit Linux anfängt, sollte sich in jedem Fall einmal die Zeit nehmen, die Grundbefehle für die Shell zu lernen. Dazu gibt es viele gute Zusammenfassungen im Netz, z.B.

    Auch mit einem Editor sollte man in der Konsole umgehen können, um Konfigurationsdateien anpassen zu können. Für Einsteiger bietet sich hier nano an, das bei den meisten Distributionen auch bereits vorinstalliert ist, für erfahrene Anwender gibt es jedoch noch sehr viel mächtigere Editoren wie z.B. vim. (siehe Tipps unten) Außerdem ist es sinnvoll, zu wissen wie die Verzeichnisstruktur unter Linux (Suchmaschine des Vertrauens hilft!) aufgebaut ist, um beispielsweise zu wissen, wo wichtige Dateien zu finden sind.

    Die richtigen Befehle finden

    Als Anfänger tut man sich natürlich schwer, auf Anhieb die richtigen Befehle zu finden. Aber auch wenn man schon mehr Erfahrung hat, passiert es häufiger, dass man auf neue Befehle stößt. Einige Tipps, wie man sich trotzdem zurechtfindet:

    • Man-Pages nutzen! mit man befehlxy oder info befehlxy erhält man oft viele Informationen zu einem Befehl und den zugehörigen Flags (zusätzliche Argumente, die mit einem Bindestrich angefügt werden, z.B. ls -la) Mit /suchwort kann man in Man-Pages auch nach geeigneten Schlüsselwörtern suchen.
    • oft bekommt man auch mit befehlxy --help oder -h eine Kurzhilfe angezeigt
    • apropos suchwortxy - Sucht in den Kurzbeschreibungen der Befehle nach dem Suchwort
    • whatis befehlxy - gibt die Kurzbeschreibung eines Befehls aus
    • whereis und which - zeigt den (Haupt)Speicherort eines Programms/Befehls an
    • ldd /pfad/zu/programm - zeigt Bibliotheks-Abhängigkeiten eines Programmes (Beispiel: ldd /usr/bin/gedit)

    Pipe benutzen

    Das Terminal hat zwar keine grafischen Effekte, dafür jedoch andere Vorteile. Diese liegen unter Anderem bei der einfachen Manipulation der Eingabe- und Ausgabekanäle. Natürlich ist es besonders effektiv, wenn man diese Vorteile gezielt einsetzt. Grob gesagt gibt es 3 Standardkanäle unter Linux für Eingabe & Ausgabe. Eingabe (“STDIN”, meist mit der Nummer 0 gekenntzeichnet), Ausgabe (“STDOUT”, Nummer 1) und Fehlerausgabe (“STDERR”, Nummer 2). Normalerweise gibt der Benutzer etwas über die “Standardeingabe” (einen Befehl) in das Terminal ein und bekommt eine Ausgabe oder einen Fehler zurückgeliefert. Das alleine wäre nichts besonders, allerdings lässt sich die Ausgabe auch über sogenannte Pipes - gekenntzeichnet durch einen senkrechten Strich | an den Eingabekanal eines anderen Befehls umleiten. So kann man Befehle unter Linux einfach verketten.

    Drei kleine Beispiele:
    ls | sort				# gibt den Ordnerinhalt aus uns sortiert die Ausgabe alphabetisch
    cat file.txt | grep apfel		# gibt eine Datei aus und sucht dann nach dem Textausschnitt, der den Begriff "apfel" enthält
    history | less				# listet die zuletzt eingegebenen Befehle auf, mit less kann man komfortable in der Ausgabe scrollen oder suchen

    Neben der “Pipe” gibt es auch noch andere Möglichkeiten, die Ausgabe umzuleiten. Zum Beispiel kann man mit dem Zeichen > auch Ausgaben in Dateien weiterleiten, wenn diese nicht direkt auf dem Bildschirm erscheinen sollen. So kann man z.B. auch Fehler in einer extra Datei sammeln, indem man die oben genannte Nummer der Fehlerausgabe benutzt:

    CMD  2 > errors.txt

    Bang-Operator: !

    Der oben angesprochene history-Befehl zeigt vor jedem früheren Befehl eine Nummer an. Mit einem Ausrufezeichen und einer passenden Nummer kann man den Befehl so auch später erneut aufrufen und erspart sich unnötige Tipparbeit:

    $ history | more 10  2011-04-20 10:37:42 sudo pacman -Syu 11  2011-04-20 11:04:06 ls 12  2011-04-20 11:04:18 cd tmp/ 13  2011-04-20 11:04:19 ls 14  2011-04-20 09:44:04 cd .config/autostart/ 15  2011-04-20 09:44:05 ls $ !12 cd tmp/
    Auch kann man die letzen Eingaben relativ ansprechen, z.B.
    !-3      # fuehrt den drittletzten Befehl aus
    Speziell für den letzten Befehl gibt es das Kürzel !!, was z.B. besonders hilfreich ist, wenn man mal wieder vergessen hat, einen Systembefehl mit Rootrechten zu starten:
    $ pacman -Syu error: you cannot perform this operation unless you are root. $ sudo !! sudo pacman -Syu Password:
    Mit dem !-Befehl lassen sich noch andere nützliche Dinge anstellen, z.B.
    mkdir newdir cd !!:1       # erstes Argument vom letzten befehl, wechselt in das neu erstelle Verzeichnis (alternativ "cd !$")
    !ssh  :p     # letzten befehl zeigen, der ssh enthielt (ohne :p wird der Befehl direkt ausgeführt)
     

    Dateiverwaltung

    ls -la # gesamten Ordnerinhalt auflisten, sollte den meisten bekannt sein ;)
    cd - # zurück zum vorherigen Verzeichnis, vergleichbar mit dem Zürück-Button in Dateimanagern
    rm -Rf ordner # löscht einen ordner komplett (rekursiv) & ohne nervige Fehler wie bei rmdir
    mkdir -p ~/neue/ordner/anlegen # mit -p können direkt mehrere Unterordner in einem Schritt erstellt werden
    du / -h | more bzw. df -h # zeigt Festplattenspeichernutzung bzw. freien Speicherplatz (-h --> human readable)
    tar cf dir.tar dir/ Tar-Archiv aus Verzeichnis dir erstellen. (tar czf für tar.gz und cjf für tar.bz2)
    tar xvzf file.tar.gz gzip tar Datei extrahieren (Dateiendung .tgz oder .tar.gz)
    tar xvjf file.tar.bz2 bzip2 tar Datei extrahieren (Dateiendung .tbz oder .tar.bz2)

     

    Wildcards

    Wildcards (erkennbar z.B. an dem Sternchen: ) werden verwendet, wenn bestimmte Buchstaben nicht klar festgelegt werden sollen. Mit ihnen ist es möglich, verschiedene Dateien auf einmal zu behandeln. Beispiele:

    mv *.jpg ./Bilder # alle jpg-Dateien in den Unterordner Bilder kopieren
    find -name *notizen* # sucht nach einer Datei im aktuellen verzeichnis mit dem Begriff notizen im Namen, siehe auch: http://www.go2linux.org/usages-examples-of-find-command
    cp filename{,.bak} # Datei filename einfach backupen
    Das Zeichen steht für 0 bis beliebig viele Zeichen. Für nur ein beliebiges Zeichen, sollte ? verwendet werden. Natürlich ist es auch möglich, nur bestimmte Buchstaben zuzulassen. Siehe dazu z.B. http://www.tuxfiles.org/linuxhelp/wildcards.html.

    Bash-Scripts und Automatisierung

    Ein riesiger Vorteil beim Benutzen der Bash ist die Möglichkeit, mehrere Befehle mit Scripts zu automatisieren. Das verkleinern von vielen Bildern oder ein regelmäßig erstelltes Backup sind so sehr bequem möglich. Natürlich erhöht es auch die Produktivität stark, wenn man solche Scripts an den richtigen Stellen einsetzt. Zudem ist es für Jeden, der schonmal mit dem Terminal gearbeitet hat und bereits einige Befehle kennt, kein großer Schritt mehr, Shell-Scripting zu lernen. Gute Anlaufstellen sind beispielsweise:

    Neben den Scripts gibt es auch noch andere Möglichkeiten, bei häufig benötigten Aktionen Zeit zu sparen. Befehle in der Datei .bashrc im Homeverzeichnis werden beispielsweise immer beim Starten der Shell ausgeführt. Hier bietet es sich an, für längere Befehle alias-Namen festzulegen. Beispiel:
    alias la='ls -lahg --color=auto --group-directories-first'
    Nun muss statt dem langen Befehl in den Anführungszeichen immer nur la eingegeben werden. Weitere nette Anregungen für die .bashrc findet man z.B. im Archlinux Forum oder im Ubuntu Forum.

    vim - Befehle für den Texteditor

    vim ist ein sehr umfangreicher Texteditor für die Konsole, der durch eine angepasste Konfigurationsdatei sowie etliche Plugins noch erheblich erweitert werden kann. Da bei Linux öfter mal vorkommen kann, dass man Konfigurationsdateien anpassen muss, hier ein kurzer Überblick. Zum Einstieg ist es wichtig zu wissen, dass es im Wesentlichen 2 Modi gibt: einen Befehls-/Kommandomodus (in dem vim auch startet) zur Eingabe von Befehlen und einen Eingabemodus zur Textbearbeitung. Mit der Taste i wird standardmäßig in den Eingabemodus gewechselt, die Taste ESC bringt einen zurück in den Befehlsmodus.

    Ein paar nützliche Befehle:
    :q vim beenden
    :q Verlassen erzwingen (bei Änderungen ohne Speichern)
    :w Änderungen in Datei schreiben
    :wq oder :x Speichern und Verlassen kombinieren
    /suche nach dem string "suche" im dokument suchen
    :/s/foo/bar nach foo suchen und mit bar ersetzen (erstes Ergebnis)
    :%s/foo/bar im Dokument nach foo suchen und mit bar ersetzen (alle Ergebnisse)
    n Weitersuchen (nächstes Ergebnis)
    u vorige Schritte rückgängig machen
    b oder w ein Wort vor oder weiter springen
    D vom Cursor bis zum Ende der Zeile alles ausschneiden
    p Text aus Zwischenablage einfügen
    v Text markieren (erneutes v beendet Markieren)
    y Text kopieren
    dd aktuelle Zeile löschen
    G zum Ende des Dokumentes springen
    gg ganz zum Anfang eines Dokuments springen

     

    Speicherprobleme lösen

    Für die aktuelle Datei fehlen die nötigen Schreibrechte:

      :shell     # wechseln in die Shell, ohne vim zu beenden
      chmod u+w filename.txt     # gibt dem aktuellen benutzer Schreibrechte
      exit     # kehrt zu vim zurück
      :w!     # Dateiänderungen speichern

    Für die Aktuelle Datei fehlen die Rootrechte (Konfigurationsdateien usw.):

      :w !sudo tee %

    (tee schreibt standardausgabe in eine datei, in diesem Fall die aktuelle (%), alternativ kann nach dem tee befehl natürlich auch ein anderer Befehl angegeben werden)

    Weiterführendes zu vim:

    Nützliche Tastenkombinationen (u.A. Gnome-Terminal)

    • Strg + A oder Strg + E - an das Anfang oder Ende einer Eingabe springen
    • Strg + Shift + T - neuen Tab mit  eigenem Terminal anlegen
    • Strg + R <suchwort> - History/letzte Eingaben nach einem Befehl durchsuchen
    • Tab - versucht einen Befehl zu vervollständigen - hier empfhiehlt es sich auch, bash-completion installiert zu haben, was dieses Feature noch erweitert
    • Strg + D - Eingabe von aktuellem Befehl beenden ("End-of-File", schließt die Standardeingabe - und damit häufig auch das Programm)
    • Strg + C - Laufendes Kommando abbrechen (sendet das Signal "SIGINTR" am das Programm)
    • F11 - Vollbild
    • Strg + Z - gerade im Terminal aktiven Prozess schlafen legen (es wird eine Nummer angezeigt (z.B. [1]) über die der Prozess wieder im aktuellen Terminal: fg %1 oder im Hintergrund: bg %1 fortgesetzt werden kann)
    • CMD & - oeffnet einen Befehl nicht im Terminal sondern im Hintergrund, sodass man im Terminal weiterarbeiten kann. Bei Erfolg wird die ProcessID des neuen Prozesses angezeigt.
    • Strg+U / Strg +W - gesamten Text nach/vor dem Curor löschen
    • Alt + F / Alt + B - ein Wort in der Eingabe vor / zurueck springen

    Fehlerbehandlung

    Viele Fehler, die einem bei der Shell-Benutzung über den Weg laufen, sind die Ursache ähnlicher Fehlerquellen und deswegen oft einfach lösbar. Generell empfiehlt es sich (sofern im Terminal keine Fehlermeldung aufgetaucht ist), einmal in den Logfiles (i.d.R. zu finden im Verzeichnis /log), z.B. in Kombination mit dem grep-Befehl nachzusehen. Für ehemalige Windows-Nutzer ist wahrscheinlich das Rechtesystem erst einmal ungewohnt:

    Rechteverwaltung

    chmod u+rwx file   # dem benutzer Lese (r) Schreib (w) und Ausführungsrechte (x) für die Datei file geben
    chown und chgrp # Besitzer und Gruppe einer Datei festlegen
    su user  # als benutzer user anmelden. su ohne Parameter gibt dauerhafte Rootrechte

    Programme “killen”

    Programme kann man auf verschiedene Weise zum Beenden zwingen:

    pkill -f programm     # versucht "programm" zu beenden
    Falls mehrere Instanzen eines Programmes laufen, lassen sich auch alle aufeinmal beenden mit:
    killall programm
    Erweiterte Kontrolle über das gewünschte Signal, das zum Beenden gesendet wird bekomt man mit dem kill-Befehl. (siehe man kill) Hier muss allerdings auch erst z.B. mittels  ps -ax | grep programm nach der richtigen Processid gesucht werden, Beispiel:
    kill -9 ID

    Andere (System)tools und Weitere Quellen

    Um den Artikel möglichst allgemeingültig zu halten, habe ich mich bemüht, hier nur die “Standardbefehle” zu erwähnen. Natütlich gibt es noch etliche gute Bash-Tools, die die Produktivität nochmal verbessern. Statt der normalen Systemüberwachung top benutze ich z.B. htop, welches mehr Funktionen bietet. Für Systemtools gibt es bereits einen guten Blogartikel, welchen ich hier gerne verlinke: http://www.cyberciti.biz/tips/top-linux-monitoring-tools.html.

    Weitere Querverweise

    Ich hoffe die Tipps in diesem Artikel kann dem Einen oder Anderen die Arbeit in der Bash erleichtern. ;) Wie immer freue ich mich über Kommentare: Gibt es noch Befehle oder Tricks, die ihr weiterempfehlen könnt oder für erwähnenswert haltet?

    7. Mai 2011

    Inzwischen ist Ubuntu Natty Narwhal freigegeben worden und Unity hat sich trotz einiger Bedenken mindestens bis zu jetzigem Zeitpunkt durchsetzen können. Es gibt noch immer genügend Menschen, die gegenüber Unity sehr skeptisch eingestellt sind, was ich grundsätzlich befürworte. Zwar meine ich, dass sich Canonical etwas sehr spezielles für Ubuntu einfallen lassen sollte, wenn das Unternehmen während den nächsten drei Jahren in die Gewinnzone kommen möchte. Aber nicht um jeden Preis und schon gar nicht zu Lasten der Benutzer.

    Wie dem auch sei; ich habe auf meinem Reiselaptop, dem Lenovo ideapad S12 ebenfalls Ubuntu 11.04 installiert. Dabei ging selbstverständlich irgend etwas in die Hosen. Das muss so sein. Erwartungsgemäss lief das WLAN nicht, obschon der proprietäre Treiber bereits nach der Installation ohne Rückfrage an den Benutzer installiert war. Auf dem Forum von ubuntuusers.de fand ich denn auch sofort die Lösung.

    Mit folgendem Befehl in der Konsole und einem darauf folgenden Neustart des Systems funktionierte das WLAN wieder:

    echo 'options acer_wmi wireless=1' | sudo tee /etc/modprobe.d/acer-wmi.conf

    Ansonsten läuft das System mehr oder weniger stabil, nicht besonders schnell, aber doch brauchbar. Unity ist nicht unbedingt die erste Wahl meiner Arbeitsumgebung, aber ich will mir das Teil doch einmal gründlich ansehen.

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    logo Puppy Linux rockt! wpa2 USB ubuntu puppy puppeee planetuu planet uu open source lucid live linux eeepc Puppy Linux ist eine blitzschnelle Linux-Distribution mit geringer Anforderung an die Hardware. Gerade im letzten Jahr hat sich bei Puppy (englisch für “Welpe”) viel getan. Wegen seiner Kompatibilität zu den Paketquellen von Ubuntu (seit Puppy Version 5.x.) bietet Puppy inzwischen auch eine große Flexibilität in Bezug auf Treiber und andere Software.

    Puppy beobachte ich nun schon seit ein paar Jahren und habe es immer mal wieder mit Freude genutzt. Auch wenn das sicher Geschmackssache ist, hat Puppy einen riesigen Charme-Faktor, alleine schon dafür, was das Look and Feel angeht. Dies ist für mich persönlich mit weitem Abstand das Beste, was Linux zu bieten hat.

    install Puppy Linux rockt! wpa2 USB ubuntu puppy puppeee planetuu planet uu open source lucid live linux eeepc

    Auf einem alten Acer Aspire mit 384 MB RAM fühlt sich das System (hier im Test: “Puppy-Lucid” 5.2.5) schneller an als z.B. eine der großen, gängigen Distributionen mit 1 GB RAM. Aber auch schon auf Systemen mit 128 MB (oder gar weniger) kann Puppy brauchbare Ergebnisse vorweisen.

    Dafür muss man natürlich gewisse Abstriche in Kauf nehmen. Für Schlankheit und Tempo muss man ein bisschen Tribut zollen. So kommt z.B. der schlanke Dateimanager ROX zum Einsatz – Mit “Drag and Drop” usw. wird man hier nicht verwöhnt. Klar, dass Gnome, Unity oder KDE auf einem solchen System nicht zu finden sind.

    So genial Puppy in den alten Versionen bereits war, so war es einfach nicht möglich, bestimmte Pakete problemlos zu installieren. Mit dem Schritt, neben dem Puppy-eigenen Paketsystem auch Ubuntu-Paketquellen nutzen zu können, hat Puppy einen ganz wichtigen Schritt nach vorne getan.

    Puppy kommt zunächst mal als Live-System (i.d.R. als ISO-Datei für CDs) mit der Option, es komplett in den Speicher zu laden. Puppy kann aber auch installiert werden – z.B. auf Platte, USB oder SD-Card. Außerdem ist es möglich, Puppy als Live-CD zu booten, dann zu konfigurieren (Netzwerk usw.) und diese Einstellungen so auf der (als Multisession angelegten) CD zu speichern. Alle Einstellungen werden beim nächsten Boot wieder geladen – ideal für temporäre Konstellationen mit historischer Hardware, die man bei Bedarf aus dem Hut zaubern kann.

    Auch die Konfiguration des Netzwerkes (v.a. was WPA2 angeht) scheint inzwischen problemlos zu funktionieren. Gerade WPA2 ist von Puppy noch nicht sooo lange gut unterstützt, was es für mich im Heimgebrauch bisher zum Killerkriterium werden ließ.

    Download Puppy Linux 5.2.5 (ISO-Datei, 128 MB)

    Ach ja: Wer einen EeePc als Netbook besitzt, kann sich eine eigens für den EeePc angepasste Puppy-Variante (Puppeee Linux) ansehen. Wehrmutstropfen ist allerdings, das diese noch auf der Version 4.x beruht. Und das bedeutet: Keine Ubuntu-Paketquellen!

     

    3 Kommentare Permalink | © 2011 by Netz 10 | Tags: , , , , , , , , , , ,

    Backups sollte man regelmäßig machen um im Falle eines System-Zusammebruchs o.ä. alle mehr oder minder wichtigen Dateien wieder aufspielen zu können. Wie ärgerlich ist es da, wenn die letzte Sicherung dann doch über ein Jahr oder länger zurück liegt, da man sich zwar vorgenommen hatte, das Backup durchzuführen, aber dieses letztendlich dann doch (un)absichtlich verschoben hat.

    Wer nicht ständig daran denken möchte, kann nun unter Ubuntu auf eine Vielzahl von Programmen zurück greifen. Diese reichen von Shell-Scripten ohne graphische Oberfläche bis zu ausgeklügelten Klick n' Do Programmen, welche eigentlich durchweg mit der Maus konfiguriert werden können.

    Nach einiger Überlegung die sich eigentlich auf pro und contra einer graphischen Oberfläche bezog, habe ich mich für "Back In Time" entschlossen: http://wiki.ubuntuusers.de/Back_In_Time

    sudo apt-get install backintime-gnome


    Nach der Installation ist unter Anwendungen ein neuer Menu-Punkt zu finden: Systemwerkzeuge. Darin findet sich "Back In Time" und "Back In Time (root)". Ein Klick auf BIT öffnet sodann auch das Programm.

    1. Als erstes stellen wir unter "Speicherort für Snapshots" das gewünschte Backup-Medium aus (in meinem Fall eine USB-Platte, welche ich zuvor gemountet habe).

    2. Nun klicken wir auf den Reiter "Einbeziehen" und wählen alle Ordner aus, die gesichert werden sollen. Dabei sei gesagt, dass BIT jede Datei nur einmal sichert und dann überprüft, ob sie sich geändert hat. Ist dem nicht so, wird ein Systemlink gesetzt, welcher nur wenig Speicherplatz in Anspruch nimmt, ganz gleich wie groß die eigentliche Datei ist. Im Klartext: auch große Dateien nehmen euch nicht bei jedem Backup erneut viel Speicherplatz weg, sondern nur einmal (oder bei Änderung an diesen).
    Wenn ihr ein volles Backup machen wollt, dann empfiehlt es sich, den Home-Ordner (unter Dateisystem -> home -> BENUTZERNAME) auszuwählen und im nächsten Reiter lediglich die NICHT zu sichernden Ordner auszuschließen.

    3. Im Reiter "Ausschliessen" können wir nun Muster, Dateien und Ordner auswählen, die NICHT gesichert werden sollen. Hier kommen z.B. Ordner hinein, welche ihr nicht sichern wollt, auch wenn ihr den Überordner zum Sichern ausgewählt habt.

    4. Der nächste Reiter "Automatisch entfernen" sorgt -wie der Name schon vermuten lässt- für eine automatische Löschung. Je nach Kriterium werden alte Backups automatisch entfernt. Dabei könnt ihr wählen zwischen:
    - Älter als x
    - Falls freier Speicher kleiner als: x
    - Smart remove ... sehr interessante Option, dabei werden folgende Kriterien angewandt:
    behalte alle Snapshots von heute und gestern
    behalte einen Snapshot von letzter und einen von vorletzter Woche
    behalte einen Shnapshot von jedem Monat diesen Jahres
    behalte einen Snapshot von jedem Jahr
    - Entferne benannte Snapshots nicht (hierbei werden von Hand benannte Snapshots grundsätzlich NICHT gelöscht)

    5. Nochmal alles prüfen und dann mit OK den Einstellungs-Dialog verlassen.

    6. Als letztes klicken wir oben links auf "Snapshot erstellen" und warten geduldig, bis das Backup beendet ist. Wenn ihr nun eingestellt habt, dass in Intervallen gesichert wird, braucht ihr euch eigentlich um nichts mehr kümmern, ansonsten müsst ihr ab und an Back In Time aufrufen und wieder auf "Snapshot erstellen" klicken.

    Meine erste Erfahrung mit dem neuen Ubuntu konnte ich anlässlich unserer Ubuntu Party am 30.4.2011 sammeln.

    Die Installation verlief problemlos, bis auf den Hänger mit dem Zeitserver. In den Räumlichkeiten von denen wir auch deren PC’s gebrauch machen konnten, hat ein Proxy Server verhindert, dass Ubuntu bei der Installation einen Zeitserver gefunden hätte. Das hatte zur Folge, dass sich die Installation wie aufgehängt hatte, und erst nach einige Zeit weiter lief. Lösung: Netzwerkstecker raus und danach wieder rein.

    Natürlich fällt einem sofort der neue Desktop “Unity” auf. Wie schon an vielen Orten beschrieben ist die Benutzung schon etwas anderes als man sich vom normalen Gnome gewohnt ist.

    Was ist anders ?

    • Eigentlich ist jetzt wirklich fast alles oben links. Daran muss man sich erst gewöhnen und danach hat man eigentlich keine Probleme mehr
    • Der Desktop ist wirklich etwas schlanker und hat fast nichts mehr wenn das System zum ersten mal startet
    • Man vermisst am meisten die Möglichkeit altgewohnte Programme zu starten

    Was hat sich geändert ?

    • Als eine der grössten Änderungen ist das starten der Programme. Auf der linken Seite sitzt nun der “Launcher” wo man seine beliebtesten Programme hat. Dieser verschwindet dann diskret sobald man ein Programm gestartet hat. Er kommt aber wieder zum Vorschein sobald man mit der Maus an den linken Rand fährt oder die “Super” Taste drückt
    • Programme die nicht im Launcher sind, startet man einfach mit einem Klick auf das Ubuntu-Symbol und gibt dessen Namen ein. Ist das Programm installiert, kann man es auch gleich starten. Will man das Programm im Launcher haben, dann wird dieser dort hinein gezogen und steht fortan zur Verfügung.
    • Die Systemeinstellungen erreicht man am einfachsten oben rechts beim Ausschaltbutton, mit dem Menüpunkt Systemeinstellungen

    Was hat mir bis jetzt nicht gepasst ?

    • Mir war die Icon Grösse im Launcher zu gross. Diese zu verändern ist grundsätzlich nicht schwierig. Man kann das aber nur machen, wenn man den „CompizConfig Einstellungsmanager“ installiert hat. Wie das geht hat donnerdrummel hier beschrieben
    • Ansonsten bin ich mit der Idee Unity zufrieden, muss mich aber noch daran gewöhnen

    Fazit

    Mein erster Eindruck vom “neuen Ubuntu” ist gut. Bis jetzt läuft das System stabil und ich finde alle meine Programme und Dateien. Wem das Unity nicht passt, der kann noch im Classic Modus starten um sich dann später an “Unity” zu gewöhnen. So wie man hört wird dann mit dem 11.10 nur noch Unity angeboten.

     

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

    …oder: Der Fall Canonical und die Community.

    Canonical Logo

    Und wieder einmal zeigt sich der Unsinn der Copyright-Assignments für FLOSS-Projekte. Während mittlerweile alle großen OpenSource-Projekte  mit vielen Mitarbeitern (OpenCore-Projekte ausgeschlossen) entweder direkt ohne CAs gestartet sind oder aber diese mit der Zeit aufgegeben haben oder dies planen (z.B. Qt), verlangt Canonical, die Firma hinter Ubuntu, für jede von ihr initiierte OpenSource-Software ein Copyright-Assignment. Das Spektrum reicht dabei von einfachen Bibliotheken zum Transfer von Menüs über DBus über die Indikator-Applets bis hin zu Großprojekten wie Unity.

    Mit Unterzeichnung des Canonical Contributor Agreements tritt ein Entwickler,  Grafiker oder Übersetzer quasi sämtliche Rechte an dem von ihm geschriebenen Code oder sonstigem Inhalt an Canonical ab. Canonical als alleiniger Rechteinhaber kann damit dann z.B. die Software unter einer beliebigen (auch proprietären) Lizenz relizensieren, was ansonsten ohne Zustimmung aller Beitragenden nicht möglich wäre. Aber es gibt noch weitere Probleme mit dieser CAs:

    Ich entwickle selbst aktiv im AppStream Projekt mit. Dieses Projekt wird die Installation von Software unter Linux wesentlich vereinfachen und “social features” wie z.B. Bewertungen und Reviews Distributionsübergreifend zu Verfügung stellen. Auf dem AppStream Treffen wurde das “Ubuntu Software Center“, welches unter Ubuntu standardmäßig installiert ist, als grafische Oberfläche für AppStream ausgesucht, da es den Zielen der Initiative in hervorragender Weise entspricht. Um das SC auch für andere Distributionen nutzbar zu machen, müssen einige Codeänderungen getätigt werden, die auch für Ubuntu schon länger geplant sind, wie z.B. die Portierung des SC auf PackageKit und die Nutzung der AppStream Infrastruktur. Michael Vogt, der Autor vom Software Center und Canonical-Angestellter (und APT-Mitautor) wollte sich bei Canonical dafür einsetzen, das CA vom Software-Center zu entfernen, sodass auch andere Entwickler Code dazu beitragen können.

    OpenSUSE hat daher für das AppStream-Projekt über den GSOC einen Studenten gefunden, der alle fehlenden Funktionen in das Software-Center implementieren wird – was an sich schonmal super ist. Dann erreichte uns jedoch eine Mail von Vincent Untz:

    [..] I’ve been involved in several discussions with Canonical about this, and
    the result appears to be that this [the CA] won’t change in the near future. What
    might happen, but keep in mind that it’s just my understanding, is a
    transition to Harmony once it’s ready:
    http://www.harmonyagreements.org/ [...]

    Canonical wird also das CA nicht entfernen, allenfalls das Projekt unter ein neues CA des eigens geschaffenen Harmony-Project stellen. Das ist aus folgenden Gründen schlecht:

    • Es gibt viele Entwickler, die ein CA nicht unterschreiben wollen – warum sollte jemand die Rechte an von ihm geschriebenen Code an eine Firma abgeben?
    • Es gibt bereits einige interessierte Entwickler, die aus dem einzigen Grund, dass es ein CA gibt, nichts zum Software-Center beitragen.
    • Angestellte OpenSource-Entwickler (z.B. von RedHat) dürfen generell keine CAs ohne spezielle Ausnahmegenehmigung unterschreiben. Das bedeutet z.B. dass Entwickler wie Richard Hughes oder Vincent keine einzige Zeile Code beitragen dürfen.

    Aufgrund dieser Tatsache wird momentan überlegt, entweder das CA allgemein zu akzeptieren und damit eine sehr langsame Entwicklung des Projektes in Kauf zu nehmen, einen Haufen von Patches zu verwalten, die jeder selbst dem SC hinzufügen muss, um die fehlende Funktionalität hinzuzufügen oder aber einen Fork des Projektes zu erstellen.

    Das pikante daran: Im Grunde hätten das USC und der (mögliche) Fork die gleichen Ziele. Es würde also vermutlich unnötige Doppelentwicklungen geben. Der einzige Grund für dieses Dilemma ist, dass Canonical sein CA nicht entfernen will (warum auch immer). Darum wird die Entwicklung eines gesamten Projektes unnötig ausgebremst. Außerdem ist dieses Verhalten absolut nicht fair gegenüber der anderen Distributionen, die ja ihre eigenen Ressourcen (es ist z.B. OpenSUSEs GSOC-Student! Richard ist RedHat/Fedora Entwickler, Vincent bei OpenSUSE tätig…) in ein Ubuntuprojekt stecken würden. Zudem tritt Canonical wieder einmal die eigene “Ubuntu-Philosophie” mit Füßen.

    Eine Entscheidung über das weitere Vorgehen mit dem USC ist noch nicht gefallen, ich habe selbst jedoch für einen Fork plädiert, obwohl ich es eigentlich hasse, doppelt zu entwickeln. Aber in diesem Fall ist es alleine schon deshalb nötig, um klare Verhältnisse in Sachen CA zu schaffen und keine halbgare Patchsammlung zu verwalten. Die meisten anderen Entwickler scheinen in eine ähnliche Richtung zu denken.

    Persönlich bin ich schwer enttäuscht von Canonical – und das nicht zum ersten Mal. Zu Unity werde ich später nochmal was schreiben, wenn ich das jetzt tue, wird diese Artikel zu lang. Aber Canonicals Umgang mit dem Banshee-Projekt und vor allem Marks in meinen Augen unangebrachte Antwort darauf, sowie zahlreiche weitere Fälle (z.B. die AppIndicator-Diskussion) und ihre CAs auf allen Code, den sie schreiben hat dafür gesorgt, dass Canonical inzwischen wirklich sogut wie alles Ansehen, das sie noch bei mir hatten, verspielt hat. Zuvor habe ich in vielen Diskussionen Canonical verteidigt, denn es ist ihr gutes Recht, profitabel werden zu wollen und die Mittel, die sie einsetzen, dürfen sie auch frei wählen. Aber der miserable Umgang mit der Community, die Uneinsichtigkeit von Fehlern, das bewusste Übergehen der Community (z.B. kontroverse Einstellungen der Distro absichtlich so kurz vor dem Freeze ändern, dass sie nicht mehr rückgängig zu machen sind) und diese Heuchelei von der “Ubuntu-Philosophie” sind mir inzwischen zu viel. Mittlerweile sehe ich an allen Ecken die Mitglieder verschwinden, beispielsweise nahm der Gründer von GetDEB vor einem Monat seinen  Hut und übergab das Projekt an seinen Stellvertreter, da er sich Ubuntu nicht mehr zugehörig fühlte. COO und CTO von Canonical sind gegangen. (Obwohl die Gründe da – zugegeben – reine Spekulation sind) Bisher mit Ubuntu zufriedene GNOME-Entwickler wechseln – als logische Konsequenz aus Natty – zu Fedora (ich habe die letzten zwei Monate 13 Wechsel gezählt – und ich bin kein bisschen in GNOME involviert) und Nutzer stellen fest, dass “Debian ja doch gar nicht so schlimm ist” oder dass Linux Mint, Arch und OpenSUSE das gleiche wie Ubuntu bieten können.

    Für mich ist der Wechsel zurück zu den Wurzeln schon fast abgeschlossen: Fedora und Debian Testing (oder Debian Rolling demnächst :) ) werden es wohl werden. (Obwohl ich natürlich auch weiter zu Ubuntu beitragen werde, vor allem wegen der tollen Ubuntu-Community)

    Zum Schluss eine Frage an Alle da draußen: Findet ihr eine logische Erklärung für Canonicals Verhalten? Profitgier ist es jedenfalls nicht, da sich z.B. über CAs kaum was verdienen lässt und die Banshee-Beträge marginal sind. In meinen Augen geht es Canonical viel mehr darum, die Kontrolle über Ubuntu und das Ubuntuversum zu behalten – aber warum? Und vor allem: Wenn es wirklich um die Kontrolle ihrer Produkte, ihrer Distribution geht, dann haben sie das FLOSS-Prinzip wirklich nicht verstanden.

    UPDATE: Zum selben Thema zu empfehlen ist auch ein Blogpost von Aaron Seigo. Desweiteren möchte ich nochmal klarstellen, dass es sich bei dem Beitrag oben natürlich um meine eigene, persönliche Meinung handelt. (Sollte aber eigentlich klar sein…) Zudem muss man natürlich zwischen CAs, die einer Firma z.B. das Recht zur Änderung der Lizenz innerhalb gewisser Grenzen (nur OSS z.B.) zugestehen (KDE) und CAs bei denen man das Copyright am Code abtritt (Canonical) unterscheiden. Und nicht zuletzt stelle ich natürlich auch nicht alles, was Canonical je geleistet hat in Frage, vor allem nicht als zufriedener Launchpad-Nutzer. (Aber auch das ist eigentlich klar im Artikel formuliert)

    Beim surfen bin ich auf einen Musikstreamingdienst Namens Soundcloud aufmerksam geworden. Anders wie herkömmliche Musikwebseiten wird Soundcloud nicht zentral gepflegt, sondern versteht sich vielmehr als Plattform für Künstler und Nutzer, die Ihre Musik Anderen zum anhören bereitstellen wollen.

    Um Musik bei Soundcloud hören zu können ist ein Konto notwendig. Hat man dieses eingerichtet kann es auch schon los gehen, unter dem Reiter „Tracks“ kann man nun Musik entdecken. Mit einem Klick auf den übergroßen „Play-Button“ wird das Lied gestartet. Wenn man etwas mitteilen will, kann man Kommentare im Lied hinterlegen. Genau wie bei meiner Entdeckung von Grooveshark habe ich mir mal den Flash-Musikplayer etwas genauer angesehen und genau wie anfangs bei Grooveshark lässt sich unter Iceweasel/Firefox mittels des Plugins Video DownloadHelper der MP3-Stream abgreifen. In diesem Sinne viel Spaß und nur freie Musik aufzeichnen, es findet sich auch das ein oder andere kommerzielle Angebot.

    Video DownloadHelper auf Soundcloud


    6. Mai 2011

    Das Full Circle Magazine hat die Spezialausgabe 2 zu Python veröffentlicht.

    Full Circle - Python Special Edition 2 Bei der vorliegenden Ausgabe handelt es sich um eine Zusammenstellung verschiedener bereits veröffentlichter Artikel der Serie „Programming in Python“ aus den Ausgaben 35 bis 42.

    • Program in Python - Part 9
      (MP3-Katalog 1)
    • Program in Python - Part 10
      (MP3-Katalog 2, XML-Dokumente)
    • Program in Python - Part 11
      (aktuelles Wetter von Webseite lesen)
    • Program in Python - Part 12
      (Wettervorhersage von Webseite lesen)
    • Program in Python - Part 13
      (Ausgaben mit Curses 1)
    • Program in Python - Part 14
      (Ausgaben mit Curses 2)
    • Program in Python - Part 15
      (Programmieren mit Pygame 1)
    • Program in Python - Part 16
      (Programmieren mit Pygame 2)

    Full Circle Magazine wird in englischer Sprache veröffentlicht.

    Creative Commons Attribution-ShareAlike 3.0 Unported LicenseDas Full Circle Magazine wird bereitgestellt unter Creative Commons Attribution-Share Alike 3.0

     

    Die LibreOffice-Box DVD steht ab sofort in einer aktualisierten Fassung, der Version 3.3.2-2 zum Download bereit.

    Der Nachfolger der OpenOffice.org PrOOo-Box ergänzt das Office-Paket LibreOffice um zahlreiche Cliparts, Icons, Labels, Logos, Muster-Dokumente und Vorlagen. Zusätzliche Open-Source Software wie der Browser Firefox oder das E-Mail-Programm Thunderbird sind ebenfalls auf dem DVD-Image enthalten.

    LibreOffice-Box 3.3 (The Document Foundation)

    LibreOffice-Box-DVD. cc-by-sa tdf

    Desweiteren enthält das 2,8 GB grosse DVD-ISO die LibreOffice-Installationsdateien für alle gängigen Betriebssysteme sowie eine portable Version der freien Office-Suite.

    Für Entwickler dürfte vor allem der auf dem Medium verfügbare LibreOffice-Quellcode (Source) sowie das SDK (Software Development Kit) interessant sein. Damit können sich Profis ihre ganz persönliche Version von LibreOffice kreieren.

    Die Document Foundation empfiehlt aufgrund des grossen Datenvolumens die LibreOffice-Box via BitTorrent anstatt über den FTP-Server herunterzuladen. Für alle, die nicht wissen wie das geht, hat Erich Christian eine Anleitung geschrieben.

    Links
    LibreOffice deutsch
    LibreOffice-Box deutsch
    The Document Foundation TDF (Organisation zur Förderung der LibreOffice Suite) englisch

    5. Mai 2011