ubuntuusers.de

17. Dezember 2010

Für Windowsnutzer gibt es schon seit geraumer Zeit portableapps.com um seine Lieblingsprogramme immer auf einem USB-Stick mitführen zu können. Nun bin ich durch Zufall auf portablelinuxapps.org gestoßen, hier gibt es zahlreiche 32-bit Linuxprogramme als statische Version, soll heißen ohne *lib-Abhängigkeiten, zum Download. Diese müssen lediglich ausführbar gemacht werden, anschließend tuen sie ihren Dienst.

Getestet wurden diese Pakete laut den Etwicklern unter den Systemen Ubuntu 10.04 (Lucid Lynx) 32-bit, OpenSUSE 11.3 (GNOME) 32-bit , und Fedora 12 (GNOME) 32-bit. Unter Debian Squeeze 32-bit konnte ein Bekannter ebenfalls die Programme ausführen. Bei mir mit Squeeze 64-bit konnte ich noch keinen Erfolg verbuchen, die 32-bit Programem ans Laufen zu bekommen.

Das angebotene Programmspektrum geht von Firefox 4.0 (Beta) über ffmpeg, Xara Xtreme, Tucan Manager, Skype bis hin zu LibreOffice. Teilweise sind die Versionen schon etwas angestaubt, aber man kann im Forum Proramme vorschlagen bzw. sich wünschen. Interessant ist das ganze auch für Debian Stable- oder Ubuntu LTS-Nutzer, da man durch dieses Angebot ohne das Einbinden von Repositories bzw. das anwerfen des Compilers bequem an aktuellere Programmversionen kommt.

Hoffentlich kommen in Zukunft noch 64-bit Programme hinzu, dann wäre eigentlich alles abgedeckt. :) Oder hat evtl. schon jemand einen Weg gefunden die Programme unter 64-bit (fehlerfrei) auszuführen?


Ziproxy ist ein nicht HTTP-Proxy Server, welcher Daten nicht zwischenspeichert, diese jedoch komprimiert und weiterleitet. Die meiste Bandbreite wird eingespart, indem Bilder neu-konvertiert werden und andere Daten per gzip komprimiert werden.

Ziproxy benötige keine Client-Software, solange der Browser die gzip-Daten korrekt dekomprimieren kann und auch mit JPEG 2000 Bildern umgehen kann. Der Proxy kann auf unterschiedliche Arten konfiguriert werden, ich hatte bereits vor langer Zeit über Ziproxy berichtet (Mein Proxy-Server) und da ich darauf aufmerksam gemacht wurde, dass die gezeigte Konfiguration in der neuen Version nicht mehr funktioniert, ich jedoch den gezeigten Proxy-Aufbau nicht mehr im Einsatz habe, wollte ich in diesem Blog-Post zumindest die beiden Grundkonfigurationen zeigen. (ggf. wäre ein solcher Proxy auch für Smartphones hilfreich)


1.) Ziproxy als Remote-Proxy

Als erstes die einfachste Variante, hier verbindet sich der Ziproxy über eine schnelle Verbindung (extern) mit dem HTTP-Servern und schickt die Daten über eine langsame Verbindung weiter.


Konfiguration: ziproxy.conf (mit ein paar Kommentaren)




ziproxy dia simple 300x53 Ziproxy   HTTP Traffic Kompression debian

Ziproxy-Standard





2.) Ziproxy als Remote-Proxy + Local-Proxy

Die Konfiguration des Remote-Proxys unterscheidet sich im Grunde nicht von der ersten Variante, auch hier wird keine Client-Software benötigt, da ein zweiter lokaler Ziproxy sozusagen als Client fungiert, dies hat den Vorteil:

  • der Browser muss nicht “JPEG 2000″ unterstützen
  • der Client (z.B. Squid) muss nicht “gzip” unterstützen
  • CPU-Last wird auf einen Server verlagert (ggf. wenn der Browser durch “JPEG 2000″-Bilder hohe CPU-Last erzeugt)

Konfiguration: Ziproxy-Client

Port = 8080
Address = "127.0.0.1"
NextProxy="81.169.188.94"
NextPort=3128
ImageQuality = {85,85,85,85}
JP2ImageQuality = {85,85,85,85}
MaxUncompressedGzipRatio = 4000
MinUncompressedGzipStreamEval = 250000
MaxSize = 2097152
Gzip = true
DecompressIncomingGzipData = true




ziproxy dia dual 300x52 Ziproxy   HTTP Traffic Kompression debian

Ziproxy_Dual




Link: ziproxy.sourceforge.net

Wonach wurde gesucht?

Ähnliche Blog-Einträge

Hallo Bloggerkollegen!

Ich habe mir mal gedacht, wir könnten eine kleine Blogparade im ubuntuusers.de-Planeten starten. Dazu hab ich mir mehrere Fragen überlegt, die jeder Blogger auf seinem Blog beantworten soll. Falls jemand eine Frage nicht beantworten kann/will, kann er sie natürlich auch weglassen.

  1. Wie lange bloggst du schon und seit wann bist du im uu.de-Planeten aktiv?
  2. Warum betreibst du einen Blog?
  3. Mit welchem Thema beschäftigt sich dein Blog?
  4. Wie viele Artikel schreibst du im Monat ungefähr?
  5. Wann und wo schreibst du deine Artikel?
  6. Wie kommst du auf neue Ideen für Blogbeiträge?
  7. Hast du (auf deinen Blog bezogen) irgendwelche Pläne für die Zukunft?  Wenn ja, welche?
  8. Was machst du sonst so in deiner Freizeit?

8 Fragen, die ich selbst natürlich auch in den kommenden Tagen beantworten werde. Aber nun würde mich erstmal interessieren: Wer traut sich als erster?


Kommentare anzeigen

Picomol ruft zu einer Blogparade auf und da der Morgenblog noch nie bei einer solchen dabei versucht er mal mitzumachen. Picomol hat ein paar Fragen an die Blogger im UU-Planeten gerichtet und ich werde versuchen sie so ehrlich wie möglich (hmm, interessante Formulierung) zu beantworten.

Wie lange bloggst du schon und seit wann bist du im uu.de-Planeten aktiv?

Wie es der Zufall will habe ich vor nicht ganz einer Stunde in den Statistiken meines Blogs gewühlt. Dabei habe ich entdeckt, dass der erste Geburtstag des Morgenblog im Uni-Stress ganz untergegangen ist. Der erste Artikel erschien am 20.11.2009 und behandelte die Blogingsoftware Blogilo (damals noch Bilbo Blogger), mit der ich auch heute noch meine Artikel schreibe. Den ersten Artikel für den UU-Planeten habe ich am 06.03.2010 veröffentlicht. Gut, es war nur ein "Hallo, da bin ich". Der erste Artikel mit Substanz kam knapp eine Woche später und behandelte recht ausführlich den damaligen Stand des KDE-Standardtexteditors Kate.

Warum betreibst du einen Blog?

Ursprünglich sollte mein Blog nur als Sammlung von Merkzetteln dienen. Oft genug passiert es ja, dass man etwas interessantes liest oder entdeckt und dann vergisst man es wieder weil man es länger nicht braucht. Für genau solche Fälle sollte der Blog eine Art Auslagerungsspeicher werden. Das hat sich zwar etwas geändert, ich sehe den Blog aber bei weitem nicht als News-Plattform wie pro-linux.de oder Golem.de und habe auch nicht vor ihn jemals dazu zu machen. Dazu habe ich dann doch zu wenig Zeit. Ich freue mich schon, wenn meine Artikel meinen Lesern bei Problemen helfen oder für Verständnis bei einem bestimmten Thema sorgen.

Mit welchem Thema beschäftigt sich dein Blog?

Mein Blog beschäftigt sich in erster Linie mit Linux und OpenSource, mit einem leichten Schwerpunkt auf Ubuntu und KDE. Daneben schreibe ich unregelmäßig Reviews zu Animes die ich gerade gesehen habe und bemühe mich etwas seltener darum mein Verständnis von Politik in Österreich und der Welt darzustellen.

Wie viele Artikel schreibst du im Monat ungefähr?

Das schwankt ziemlich. Kommt darauf an wieviel Inspiration ich finde und ob ich neben Uni und Job auch Zeit dazu habe. Es ist aber gefühlt im Durchschnitt ein Artikel alle ein bis zwei Wochen.

Wann und wo schreibst du deine Artikel?

Wann? Hmm, jetzt ist es gerade 02:03:45 Nachts… Normalerweise schreibe ich meine Artikel in meiner Freizeit, Nachmittags bis Abends. Falls sich das Wo auf den Ort bezieht: entweder zu Hause oder bei meiner Freundin. Falls es sich auf die Hardware bezieht: auf meinem treuen Magi, der schon seit Hardy zu mir hält.

Wie kommst du auf neue Ideen für Blogbeiträge?

Bei FreeSoftware/OpenSource-Themen hauptsächlich durch eigene Beobachtung und Themen in anderen Planeten oder Newsfeeds. Politik findet seinen Weg (wenn) durch aktuelle Ereignisse. Anime werden, wie beschrieben, sofern ich sie für würdig erachte (man ist das geschwollen :) ) mit einer Review geehrt. Das ist jedoch unabhängig vom Erscheinungszeitpunkt des Anime.

Hast du (auf deinen Blog bezogen) irgendwelche Pläne für die Zukunft? Wenn ja, welche?

Mein Blog soll euch allen das Hirn waschen und zu meinen willigen Sklaven werden lassen.

Abgesehen davon ist die Mission dieses Blogs eine einfache: solange es geht nützliche Artikel veröffentlichen.

Was machst du sonst so in deiner Freizeit?

Programmieren, Spiele spielen (zur Zeit sitze ich immer noch an GTA SA), lesen, kochen.

Creative Commons License
This work is licensed under a Creative Commons Attribution-ShareAlike 3.0 Unported License.

=-=-=-=-=
Powered by Blogilo


Einsortiert unter:Ubuntuusers, Vermischtes

16. Dezember 2010

Diesmal hat es etwas länger als eine Woche bis zum nächsten -rc gedauert, aber nun liegt 2.6.37-rc6 vor.

Die Änderungen sind zumeist unspektakulär. Zumeist fallen Korrekturen in fast allen Bereichen des Kernels an. Dazu kommt ein Update der Geätenummern- und Makrodatenbank für die ARM-Architektur, das eigentlich nicht besonders aus den vorangegangenen Updates heraussticht, dennoch eine der umfangreichsten Änderungen dieser Vorabversion ist. Den größten Umfang hat jedoch ein neuer Treiber, mit dem nun die GPIO-Schnittstelle mit Geräten genutzt werden kann, die keinen Interrupt auslösen. Diese Schnittstelle (General Puspose Input/Output - Mehrzweck-Ein/Ausgabe) ermöglicht die Anbindung zum Beispiel eines Chips, der einen Signal an der Schnittstelle anlegt und per Interrupt den Kernel zum Auslesen auffordert. Eingabegeräte oder einfache Schalter können diesen Interrupt jedoch nicht setzten und blieben daher bislang unbeachtet. Der neue Treiber liest, so er aktiviert diese Schnittstelle jedoch aus und achtet selbsttätig auf Änderungen des Signals.

Alles in allem scheint sich die Entwicklung zu beruhigen. Da das Merge Window für den folgenden Kernel jedoch frühestens nach den Weihnachtsferien (in USA) geöffnet wird, bleibt noch etwas Zeit für 2.6.37 um zu reifen.

Wann wird 2.6.37 veröffentlicht?

Zum Jahresende hin stelle ich einfach mal diese Frage in den Raum und wer belohne die Antwort, die am dichtesten an der Wahrheit liegt, mit einer CD von „The Nuri“. Wer also beim Sintel-Gewinnspiel von freiesMagazin leer ausging, hat hier eine zweite Chance.

Die Randbedingungen:

  • Gefragt sind Tag und Uhrzeit der Veröffentlichung des Kernels 2.6.37; Es gilt der Zeitstempel des Commits; Daten ohne Uhrzeit werden als 00:00:00 gewertet, wenn nicht anders gekennzeichet wird die Uhrzeit als CET (Mitteleuropäische Zeit) gewertet;
  • Beispiel 2.6.37-rc6:
    • Do, 16.12.2010 01:24:48 UTC (koordinierte Weltzeit)
    • Do, 16.12.2010 02:24:48 CET (Mitteleuropäische Zeit)
    • Mi, 15.12.2010 17:14:48 PST (Pacific Standard Time, Torvalds' Zeitzone)
  • Es muss eine gültige E-Mail-Adresse im Kommentar angegeben werden. Diese wird zur Kontaktaufnahme verwendet; Erhalte ich innerhalb von fünf Tagen nach Kontaktaufnahme keine Antwort, geht die CD an den nächsten.
  • Das Spiel endet mit Veröffentlichung von 2.6.37, maßgeblich ist auch hier der Zeitstempel des Commits sowie des Kommentars. Antworten, die danach abgegeben wurden, werden nicht mehr berücksichtigt. Sollten mehrere Antworten gleich dicht daran liegen, gewinnt die, die als erstes gegeben wurde.
  • Obligatorisch: Der Rechtsweg ist ausgeschlossen.

Hinweis zum SPAM-Filter:

  • Sollte der SPAM-Filter zuschlagen, so landet der Kommentar in einer Warteschlange und harrt der manuellen Freigabe. Spätestens mit Veröffentlichung von 2.6.37 werden eventuell dorthin gewanderte Kommentare „entfiltert“. Also fallen auch diese nicht unter den Tisch.

Quelle: Linux Kernel Mailing List

 

15. Dezember 2010

Timer

Hä? Obwohl die man-page vom Unix-Befehl time eindeutig Optionen anzeigt, wie z. B. das Schreiben der Ausgabe in eine Datei, funktionieren die dort beschriebenen Argumente nicht. Ein Beispiel:

$ time -o "log" sleep 2
-o: Befehl nicht gefunden
 
real	0m0.710s
user	0m0.220s
sys	0m0.060s

Wie gesagt, -a und -o müssten möglich sein. Ich habe es dann letztendlich mit Pipes versucht, aber das war auch nicht die Lösung. Für mein aktuelles Projekt – und den kommenden Artikel – benötige ich die Funktion aber. Also an die Arbeit.

bash war’s!

Nach ein wenig Recherche findet man dann heraus, dass das Eingeben des Befehls time in einer Bourne-Shell nicht das Programm /usr/bin/time startet. Die Version in der Shell ist dabei ohne Argumentannahme kompiliert, die im Verzeichnis liegende mit diesen Optionen.

Startet man also explizit die Version aus dem genannten Verzeichnis, funktioniert time nun auch so, wie man es erwartet. Die Ausgabe sieht auch anders aus; nicht so schön formatiert. Zuerst der Test ohne Optionen:

$ /usr/bin/time sleep 2
0.00user 0.00system 0:02.00elapsed 0%CPU (0avgtext+0avgdata 2480maxresident)k
0inputs+0outputs (0major+203minor)pagefaults 0swaps

Zeitlos schön

Funktioniert also. Um das ganze auch noch etwas zu verschönern, machen wir uns die (nun möglichen) Optionen zu nutze und wählen die Ausgabe, die für uns brauchbar ist. Für mich ist das im Moment der übergebene Konsolenbefehl (%C) und die Real-Laufzeit desselben (%e), getrennt von einem Tab (\t). Gleichzeitig möchte ich die Ausgabe jetzt nicht in die Standardausgabe stdout, sondern in eine Datei "log" leiten, die nicht überschrieben, sondern ergänzt wird.

$ /usr/bin/time -a -o "log" -f "%C\t%e" sleep 2; cat log
sleep 2	2.00

Der Befehl cat liest danach sofort die erzeugte Datei und siehe da: Endlich haben wir die gewünschte Ausgabe im richtigen Format, in der richtigen Datei.

Ich habe heute die ersten Spiele des Humble Indie Bundle #2 runtergeladen und mal angespielt. Enthalten ist diesmal Braid, ein Jump & Run Spiel mit interessanten Features und vielen Knobelaufgaben, Cortex Command, dem schon länger bekannten Machinarium, das sehr atmosphärische Spiel Osmos und Revenge of the Titans, ein Strategiespiel, das auf den ersten Blick aussieht wie Starcraft mit Pacman Figuren ;) .

Braid

Angefangen hab ich mir Braid, einem Jump & Run mit ungewöhnlichen Features. Auf den ersten Blick sieht es aus wie ein billiger Mario Klon, allerdings hat er es in sich. Macht man einen Fehler verliert man kein Leben sondern man kann einfach die Zeit zurückspulen und es noch einmal versuchen. Man muss teilweise schon am Anfang recht knackige Rätsel knacken um Puzzelteile zu finden, die am anschließend zusammensetzen kann.

Osmos

Osmos ist ein sehr ruhiges und atmosphärisches Spiel. Man spielt eine Zelle, dessen Aufgabe es ist, zu wachsen, indem sie kleinere Zellen absorbiert. Dabei darf man nicht selbst von größeren Zellen absorbiert werden. Man bewegt sich, indem man einen Teil der eigenen Masse aus stößt und durch den Rückstoß in die entgegengesetzte Richtung bewegt. Dabei verliert man jedoch an eigener Masse. Man muss sich also sparsam bewegen.

Die übrigen Spiele werde ich mir im Laufe der nächsten Tage näher anschauen.

Die Aktion läuft noch etwa 6 Tage und es wurden bereits rund 62000 Bundles verkauft. Wie beim letzten mal sind die Linux User mit Abstand am spendabelsten. Sie führen aktuell mit durchschnittlich $13,60 vor den Mac Usern mit gut $8,00 und Schlusslicht sind die Windows User mit derzeit $5,92.

Auf jeden Fall wieder eine lohnende Aktion und bei dem 5 Spielen sind garantiert welche für jeden dabei

Linuxsysteme laufen i.d.R. recht stabil. Auch hier kann es jedoch vorkommen, dass sich ein Prozess nicht regulär beenden lassen will und “abgeschossen” werden muss.

100 17001 Xkill: Der Tod im grafischen Gewand xkill X ubuntu totenkopf prozess planetuu PID lucid lynx linux kill

Xkill (hier als Totenkopf): Mit einem Klick eine nicht mehr reagierende Anwendung beenden

 

Kill: Auf der Kommandozeile erledigt dies zuverlässig der Befehl kill, dem als Argument die ID des Prozesses übergeben wird. Um diese PID in Erfahrung zu bringen kann man z.B. ps (in Verbindung mit grep) oder auch top einsetzen. Standardmäßig sendet kill dann ein Signal 15 (TERM) an den Prozess, um sich möglichst sauber zu beenden. Beispiel für ein imaginäres Programm “oggsyncer”, das in diesem Szenario hängt und beendet werden soll:


sick@work:$ps ax | grep oggsyncer
3818 S    /bin/oggsyncer
sick@work:$ kill 3818

Xkill: Für den kommandozeilenresistenten Endanwender (oder für alle, denen sowas einfach Spaß macht), gibt es auch eine grafische Alternative für nicht mehr reagierende Anwendungen auf dem Desktop: Xkill. Man sollte sich aber darüber im Klaren sein, dass man mit einem unbedachten Klick einen potenziell großen Schaden anrichten kann. Manche Anwender sind deshalb der Ansicht, dass Xkill nicht oder nur als Notlösung verwendet werden sollte. Gestartet wird der kleine Helfer am schnellsten mit der Tastenkombination “ALT“+”F2“  und der Eingabe von “xkill“:

[edit: Bei manchen Distributionen kann Xkill auch mit STRG+ALT+ESC gestartet werden (siehe Kommentare) ]

altf2 Xkill: Der Tod im grafischen Gewand xkill X ubuntu totenkopf prozess planetuu PID lucid lynx linux kill

Der Mauszeiger verwandelt sich nun und wird z.B. bei Ubuntu Lucid Lynx als Totenkopf (Bild ganz oben) oder bei anderen Distributionen auch als einfaches “X” angezeigt. Der nächste Linksklick ist tödlich. Denn nun kann man den Mauszeiger auf das zu beendende Programm manövrieren und es mit einem Linksklick killen. Danach funktioniert der Mauszeiger wieder normal und Xkill ist beendet.

Xkill abbrechen: Mit einem Rechtsklick kann man Xkill abbrechen und den Mauszeiger wieder seiner normalen Funktion übergeben, auch ohne eine Anwendung abgeschossen zu haben.

Wikipedia: Xkill

12 Kommentare Permalink | © 2010 by Netz 10 | Tags: , , , , , , , , ,

Vor ein paar Tagen hatten die Entwickler angekündigt, dass bald mal eine finale Version des Dropbox-Clients erscheinen sollte. Doch nun ist mit 1.0.7 ein weiterer Release Candidate erschienen. Es gibt aber Grund zur Hoffnung, denn die Zahl der bereinigten Fehler nimmt ab – in der aktuellen Version sind es lediglich 2 nur noch kleine Fehler, die nur selten auftreten sollen. Einzelheiten dazu gibt es im Dropbpx-Forum.

Ein Backup der alten Version des Dropbox-Clients sollte aber dennoch nicht vergessen werden. Nachdem man Dropbox gestoppt hat benennt man einfach den .dropbox-dist-Ordner im Home-Verzeichnis um und entpackt das tar.gz der neuen Version im Home-Verzeichnis. Nach einem Neustart der Dropbox sollte alles wie gewohnt laufen.

Download Dropbox 1.0.7 Release Candidate
Linux x86: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.0.7.tar.gz
Linux x86_64: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86_64-1.0.7.tar.gz
Windows: http://dl-web.dropbox.com/u/17/Dropbox%201.0.7.exe
Mac OS X: http://dl-web.dropbox.com/u/17/Dropbox%201.0.7.dmg

Ich bin gespannt ob es in den nächsten Tagen dann wirklich eine finale Version geben wird.

Einige Tage ist es schon angekündigt, nun bietet Wolfire Games das „Humble Indie Bundle“ in der zweiten Auflage an.

Ausschnitt aus dem Download-Fenster des Humble Indie BundleAuch in diesem Jahr hat das Entwicklerstudio Wolfire Games wieder ein Paket aus fünf Spielen geschnürt und bietet sie für kleines Geld an - oder für großes Geld, denn den Preis bestimmt der Käufer. Zusätzlich kann man als Käufer auch selbst bestimmen, welcher Anteil der Bezahlung an die Spieleentwickler, die Electronic Frontier Foundation, die Organisation Child's Play und/oder die Initiatoren der Aktion gehen.

Bestandteil des neuen Pakets sind:

Die Spiele sind allesamt für Linux, Mac und sogar Windows verfügbar und frei von jeglichem Kopierschutz. Die Soundtracks von Machinarium, Osmos und Revenge of the Titans lassen sich gesondert herunterladen, für Linux gibt es eine große Auswahl an „Varianten“ zum Download, von einfachen Tar-Archiven hin zu per Paketverwaltung installierbaren Paketen für i386 und amd64-Architekturen (siehe Vergrößerung des rechtsstehenden Bildes).

Die Bezahlung und Verteilung des Geldes sowie der anschließende Download erfolgt auf Humblebundle.com, dort stehen auch Statistiken über die bisherigen Einnahmen zur Verfügung. Die Aktion läuft noch bis zum 21. Dezember, ein kleiner Counter oben auf der Seite informiert über die verbleibende Zeit, da dieses Paket noch gekauft werden kann.

Quelle: Wolfire Games Blog

 

14. Dezember 2010

The Humble Indie Bundle war ein großer Erfolg, nun geht  es in die zweite Runde. Neue Spiele – Neuer Preis

The Humble Indie Bundle ist zurück. Wie auch schon bei dem ersten Bundle können 5 verschiedene Spiele zu einem selbstbestimmten Preis gekauft werden. Die Spiele werden in Versionen für Linux, Mac und PC angeboten und sind DRM frei. Laut Indie Bundle liegt der Gesamtwert der Spiele bei Einzelkauf bei $85.

Folgende Spiele sind im Paket enthalten:

  1. Braid
  2. Machinarium
  3. Osmos
  4. Cortex Comand
  5. Revenge of the titans

    Finanzielle-Übersicht der Aktion (Angaben ohne Gewähr)

Die Einnahmen werden an die zwei Organisationen Child’s Play und Electronic Frontier Foundation gespendet. Wahlweise kann vor Bestätigung des Kaufes festgelegt werden, welche Organisation mehr Geld erhalten soll.

->Die Aktion “The Humble Indie Bundle” läuft noch bis nächsten Dienstag

Vom ersten Humble Indie Bundle sind mitlerweile vier der fünf Spiele Open Source, allerdings ist bisher nur das fünfte Spiel, World of Goo, im Ubuntu Software Center angekommen.

Nach einem etwas ruckeligen Start läuft Sabayon ohne Probleme auf dem Netbook.

Ich kann mich gerade nicht beklagen. Vermutlich fiel der erste Test in eine Zeit, in der gerade die Repositories aktualisiert wurden.

Es gibt nur eine Sache, die mir bis jetzt negativ aufgefallen ist. Sabayon wirkt ein bisschen zäher als Ubuntu.

Dafür verbraucht es aber deutlich weniger Speicher und weniger Strom. Nun kann es natürlich sein, dass das System im Batterie-Betrieb den Prozessor drosselt, um Strom zu sparen. Das muss ich noch einmal näher analysieren.

Das erste grössere Update lief gestern auch problemlos durch.

Als Nutzer ist es hilfreich, die folgenden Befehle zu kennen:

equo update aktualisiert den Inhalt der Paket-Repositories.

equo search NAME sucht die Software NAME.
equo install NAME installiert die Software NAME.

equo install entropy sulfur equo wird empfohlen nach dem Aktualisieren der Repositories, installiert die aktuellen Versionen von entropy sulfur und equo. equo conf update sorgt für die Aktualisierung der Konfigurationen (ACHTUNG: Hier muss man aufpassen).

Aktualisierung auf den aktuellsten Stand:
equo update
equo upgrade --ask
equo conf update

Es lohnt sich, das --ask zu merken, es sorgt dafür, dass vor Veränderungen nachgefragt wird.

equo libtest sucht nach fehlenden Bibliotheken und installiert fehlende (denkt an --ask).
equo deptest sucht nach nicht erfüllten Abhängigkeiten (ich wiederhole mich gerne, denkt an --ask).

Die Dokumentation ist sehr gut: Equo und List Of Equo Functions.

Alles in allem ist es ein sehr gut nutzbares System. Von Begeisterung möchte ich nicht reden, aber ich stehe auch noch am Anfang mit Sabayon.

Es ist Dezember und die Änderungen an Inyoka überschlagen sich. Eine große Änderung, welche seit Oktober im Kommen ist und hier im Blog bereits angekündigt wurde, ist das neue Wiki. Keine Angst, an der Benutzung haben wir nichts geändert, jedoch viele Teile des Wikis neu und effizienter umgesetzt, sodass es sich im Großen und Ganzen flinker anfühlt und schneller reagiert.

Zum neuen Design kann man nicht viel sagen, es wurden lediglich Detailänderungen eingefügt. So wurde die „Pathbar”, also die Region wo unsere „Brotkrümel” und die Suche integriert ist, unauffälliger gestaltet. Weiterhin haben die „Sidebar” und die Artikelübersicht im Ikhaya einen frischen Anstrich bekommen.

Diese Änderungen werden voraussichtlich am Sonntag, dem 19. Dezember gegen Abend produktiv geschaltet. In dieser Zeit kann es passieren, dass ubuntuusers.de für ein paar Minuten nicht erreichbar ist.

Update (17:00): Alle Systeme sind aktualisiert und wieder hochgefahren. Morgen veröffentlichen wir dann einen detaillierten Beitrag über die Änderungen

Die neue Sidebar:

Die neue „Pathbar”:

Die neue Artikelübersicht:

Auf eine besondere kleine Funktion möchte ich kurz aufmerksam machen, weil sie viele Administratoren oder Sonst-Wie-Konfigurationen-vornehmende-Benutzer wahrscheinlich auch brauchen könnten:

buf () { filename=$1; filetime=$(date +%Y%m%d_%H%M%S); cp ${filename} ${filename}_${filetime}; }

Man spielt an der main.cf des Postfix herum oder bastelt an der xorg.conf. Und wie man das eben von dem erfahrenen Linux-Benutzer seines Vertrauens (oder dem UbuntuUsersWiki) gelernt hat, sichert man vorher die Konfigurationsdatei mit dem obligatorischen:

cp xorg.conf xorg.conf.bak

Je nach Intensität der Anpassungen häufen sich auch Backupfiles a la “xorg.conf.bak.bak” oder “.bak2 bis .bak5000″

Fügt man die obige Funktion in seine .bashrc hinzu, erledigt sich das Thema relativ schnell.

buf xorg.conf

Erstellt automatisch ein File mit dem aktuellen Zeitstempel im aktuellen Verzeichnis. Nochmal im formatierten Zustand:

buf () {
filename=$1
filetime=$(date +%Y%m%d_%H%M%S)
cp ${filename} ${filename}_${filetime}
}

Dass commandlinefu.com eine großartige Site ist, ist wahrscheinlich für die meisten nichts Neues. Teileweise regnet es dort wunderschöne kleine Kommandozeilen für den Alltag.

OMG Ubuntu schreibt heute über Googsystray, eine Möglichkeit Google-Dienste als Benachrichtigung im Ubuntu einzufügen. Ich habe mir jedoch die nur mal kurz erwähnte Alternative angeschaut: Cloudsn.

Cloudsn (oder auch Cloud Services Notifications) lässt sich sowohl über ein eigenes Symbol als auch per Indicator-Applet einbinden – letzteres finde ich ziemlich gut.

Mit dem kleinen Pogramm, dass über ein PPA auf Launchpad verfügbar ist, lassen sich Google Mail, Google Reader, RSS Feeds, Twitter, Identi.ca, pop3- und imap-Konten einbinden. Bei den letzten beiden ist es durchaus interessant, da man so über neue Mails benachrichtigt werden kann ohne ein Mail-Programm dauerhaft im Hintergrund laufen zu haben.

Passwörter lassen sich als reiner Text oder verschlüsselt ablegen. Eingestellt werden kann darüber hinaus die Häufigkeit, in der die Konten geprüft werden sollen und wieviele Benachrichtigungen maximal angezeigt werden sollen. Außerdem lässt sich ein Sound abspielen und es kann eingestellt werden, dass das Programm automatisch beim Systemstart mitstartet.

Um das kleine Programm zu installieren muss die Paketquelle hinzugefügt werden. An dieser Stelle weise ich immer darauf hin, dass Fremdpakete das System beschädigen können. Hat man die Gefahren verstanden kann man Cloudsn wie folgt installieren:

sudo add-apt-repository ppa:chuchiperriman/cloudsn
sudo apt-get update
sudo apt-get install cloudsn

Das Programm kann das im Menü Anwendungen > Internet > Cloud Services Notifications gefunden und gestartet werden. ich habe mir das ganze mal installiert und in das Indicator-Applet mit eingebunden.

Als bekannt wurde, dass die Entwickler des freien Musikplayers Songbird die Linuxunterstützung aufgrund von zu hohem Arbeitsaufwand und zu wenig Entwicklern aufgeben will, war das Geschrei groß. Die Linux-Gemeinschaft war enttäuscht, denn Songbird war der Lieblingsplayer vieler Nutzer. Umso erfreuter war man dann, als bekannt wurde, dass einige Programmierer einen Songbird-Fork speziell für Linux entwickeln wollten. Sein Name sollte Nightingale lauten. Der erste Schritt war eine eigene Homepage, die stand auch nach wenigen Tagen bereits.

Von da an allerdings tat sich nicht sonderlich viel. Seit Monaten sind über dem ausgegrauten Screenshot des Players die Worte “Coming Soon” zu lesen. Der letzte Beitrag im Nightingale-Blog ist allerdings über ein Monat alt und erweckt wenig Hoffnung, dass aus dem Player doch noch was wird. Eigentlich schade, denn die anfänglichen Pläne hörten sich gut an. Auch im Nightingale-Forum ist so gut wie nichts los. Und das, was auf der Sourceforge-Projektseite steht, macht auch nicht gerade Mut: “This project has no files.

Ist Nightingale also also bereits tot, bevor das Projekt überhaupt richtig gestartet ist?


Kommentare anzeigen

Da der Unity Desktop eigentlich mal für Netbooks gedacht war, und auch nach wie vor ein primäres Ziel sind, habe ich versucht, mal einen Eindruck davon zu gewinnen, wie das am Ende in etwa aussehen könnte.

Da mir kein echtes Netbook zur Verfügung steht habe ich die Bildschirmauflösung auf 1024×768 eingestellt und für das Video etwa einen Bereich von 1024×600 verwendet. Das Startmenu wird dabei etwas länger gestreckt. Als Browser habe ich Chromium verwendet. Die obere Fensterleiste hab ich unter das Panel verschoben, um die Integration derselben in das Panel zu simulieren.

Maximierte Programme werden bisher noch nicht in das Panel integriert. Lediglich das Menu der Programme wird als Global Menu angezeigt.

Ich finde, dass ganze macht schon einen recht guten Eindruck. Die meisten Webseiten lassen sich bei der vollen Breite gut darstellen.  Das Startmenu erfüllt seinen Zweck, wobei ich aufgrund der großen Icons etwas Bedenken mit dem Platz habe. Das könnte schnell eng werden. Allerdings denke ich, dass man bei der Verwendung auf Netbooks von einem anderen Nutzerverhalten ausgeht. Die Intellihide Funktion kommt nicht so zum tragen, da die meisten Fenster sowieso maximiert sind und das Startmenu damit sowieso automatisch verschwindet. Der “Umweg” mit dem Mauszeiger in die linke obere Ecke ist auf dem kleinen Bildschirm erträglich.

Da ich wie erwähnt leider kein echtes Netbook habe kann ich Unity nicht wirklich dafür testen. Vielleicht hat jemand von euch ein Netbook rumliegen, das nicht genutzt wird oder leicht defekt ist, und kann mir das für eine gewisse Zeit als Leihgabe zur Verfügung stellen. Dabei ist egal, ob der Akku defekt ist, oder die Festplatte, Tastatur usw. Hauptsache das Display ist intakt, mindestens eine USB Buchse funktioniert und das Netbook ist grundsätzlich in der Lage zu booten. Ich übernehme auch die Transportkosten. Mit einem echten Netbook könnte ich auch testen, ob die Performance mit der Compiz Version von Unity jetzt besser ist als vorher.

(Das Video wird nur im Blog angezeigt)

Eigentlich soll das kein Microsoft-Bashing werden, auch wenn es sich vielleicht so anhört. Wer Software dieser Firma nutzen möchte soll dies von mir aus gerne tun. Nur irgendwie verschlägt es mir die Sprache wenn ich so etwas lese, wie heute bei Golem.de:

Zum Patchday in diesem Monat wird es aber aller Voraussicht nach keinen Patch geben. Somit ist erst Mitte Januar 2011 mit einem Update zu rechnen, mit dem das Sicherheitsloch geschlossen wird.

Dabei geht es um eine Sicherheitslücke im Internet Explorer von Microsoft. Wie kann man sich bei sicherheitsrelevanten Updates bitte an das Datum eines “Patchdays” halten? Die Kunden mit einer solchen Sicherheitslücke einfach mal nen Monat warten lassen ist in meinen Augen ziemlich fahrlässig, oder? Ich kann mich nicht daran erinnern bei Linux oder dem Firefox jemals so lange auf die Schließung einer bekannten Sicherheitslücke warten zu müssen – korrigiert mich bitte wenn ich hier etwas vergessen habe. In der Regel erscheinen diese Updates innerhalb weniger Tage, oft jedoch innerhalb von nur 24 Stunden.

Was treibt Microsoft da? Sind ihnen die (zahlenden!) Kunden so egal? Was muss man da in Redmond noch so ewig lange untersuchen, dass man die Leute auf solchen Sicherheitslücken einfach sitzen lässt? Das ist mir irgendwie unbegreiflich.

Die neuerliche Gratis-Aktion des Herstellers Softmaker nimmt Pinguinzubehör zum Anlass, das Programm einmal vorzustellen. Die Nürnberger Softwareschmiede hat mit „Softmaker Office“ eine komplette Office-Suite im Angebot, neben dem Schreibprogramm „Textmaker“ ist mit Planmaker noch eine Tabellenkalkulation sowie mit Presentations eine Powerpoint-Alternative enthalten.

Das Besondere ist, dass Softmaker Office sowohl für Windows als auch Linux verfügbar ist. Vorbildlich: die Software steht für Linux wahlweise als Debian/Ubuntu-Paket, als RPM-Datei oder TarGz-Archiv zur Verfügung.

Das Schreibprogramm der Wahl unter Linux ist normalerweise OpenOffice-Writer, ganz einfach aus dem Grund, weil es von nahezu allen Distributionen als Standard für die Textverarbeitung vorinstalliert ist. Nur auf kleineren Distributionen für schwächere Rechner kommt manchmal Abiword als Alternative zum Zuge. Beides sind quelloffene Programme. Mit Textmaker gesellt sich noch eine proprietäre Alternative hinzu. Mancher wird sich daher fragen, welche Gründe es geben kann, sich eine kommerzielle Alternative auf seinem Linuxsystem zur Textverarbeitung zu installieren. Um es gleich zu sagen: es gibt sie.

Das Programm
Doch werfen wir zunächst einen Blick auf das Erscheinungsbild: Der erste Eindruck ist der eines schicken, übersichtlichen Programmes. Textmaker 2008 integriert sich nicht in die gängigen Linux-Desktops, es gibt weder eine Anpassung an KDE noch an GNOME. Das Programm zeigt sich in seinem eigenen, silber-grauen Stil mit seeblauen Menübalken (eine Optik, die den alten KDE-2-Standardstil imitiert), was ausgerechnet unter Ubuntu etwas merkwürdig wirken kann.

Unter Windows übernimmt Textmaker hingegen die Systemfarben. Anpassen kann man unter Linux lediglich die Dialog-Stile. Neben „Linux“, sprich KDE 2, sind auch „Vista“, „XP“ oder „Windows95“ verfügbar.

Auch einen eigenen Dateiauswahl- und Druckdialog bringt Textmaker mit.


Der Dateiauswahldialog

Dafür beherrscht Textmaker echtes MDI (also das Öffnen und Anordnen mehrerer Dokumente in nur einem Programmfenster) – eine Funktion, die es in OpenOffice schon lange nicht mehr gibt.


Mehrere Dokumente in einem Fenster

Kantengeglättete Schriftarten beherrscht Textmaker im Dokumentenbereich, nicht jedoch in der Programmoberfläche selbst. Die Menüzeile und die Symbolleisten sind permanent sichtbar, jedoch übersichtlich mit den wichtigsten Funktionen bestückt und wirken nicht überladen. Die Symbolleisten lassen sich über ihr Kontextmenü bequem nach den eigenen Bedürfnissen anpassen.

Textmaker merkt sich beim Schließen des Programmes den eingestellten Vergrößerungsgrad eines Dokumentes, nicht jedoch die Position des Cursors, wie es etwa OpenOffice beherrscht.

Die Funktionen
Das DOC-Format spielt unter Linux traditionell keine große Rolle, doch selbst wenn man persönlich ganz darauf verzichtet, lebt man nicht allein im Universum und erhält früher oder später ein Word-Dokument zugeschickt. Hier kann Textmaker seine Stärken zeigen. Softmaker selbst hebt hervor, dass bei Textmaker großer Wert auf DOC-Kompatibilität gelegt wird. Das scheint zu stimmen, mit Word-Dokumenten kann Textmaker bedeutend besser umgehen als die freie Konkurrenz. Während sich das Layout unter OpenOffice gerne mal verschiebt und Dokumente eigentümliche Formatierungen erhalten, bleibt bei Textmaker alles am Platz. Das Bearbeiten von Word-Dokumenten gelingt somit entschieden besser.
Das unter Linux geläufigere ODT-Dokumentenformat, also das Format, in dem auch OpenOffice standardmäßig speichert, beherrscht Textmaker ebenfalls, jedoch nicht im gleichen Maße wie DOC. Die ODT-Unterstützung kann man bestenfalls als rudimenär bezeichnen, mehr als blanker Text geht kaum, beim Importieren von ODT-Dokumenten mit Tabellen oder Graphiken entsteht das reine Chaos – aber immerhin: sie ist vorhanden und mit OpenOffice erstellte Dokumente lassen sich auch in Textmaker betrachten.
Ein typisches Merkmal von Textmaker ist, dass die automatische Silbentrennung stets eingeschaltet ist. Wer sie nicht braucht, muss sie erst über die Absatzeinstellungen (Format, Absatz) deaktivieren.
Was Vielschreibern auf den zweiten Blick auffällt, ist das Fehlen des automatischen Umwandelns von Binde- zu Gedankenstrichen. Eine Korrektur dafür im Bereich der Rechtschreibkontrolle gibt es nicht, bei Textmaker muss man den Weg über die „Textbausteine“ gehen. Hier kann man z.B. definieren, dass zwei Bindestriche zusammen einen Gedankenstrich ergeben sollen.


Textbaustein- und Ersetzungsfunktion

Die Möglichkeit, ein Dokument als PDF zu exportieren, ist vorhanden, auch Selbstverständlichkeiten wie Fußnoten und automatische deutsche Anführungszeichen findet man bei Textmaker. Eigene Wörterbücher lassen sich nicht anlegen, im Gegenzug fällt das „Dazulernen“ von Wörtern leichter, da ein Klick im Kontextmenü ausreicht, um es dem Wörterbuch hinzuzufügen (nicht zwei Klicks wie bei OpenOffice, weil noch das Wörterbuch ausgewählt werden muss, in das gespeichert werden soll).
Das eingebaute Wörterbuch zur automatischen Rechtschreibkontrolle macht einen guten Eindruck, patzt aber unübersehbar bei zusammengesetzten Wörtern:

Versuchsaufbau
Temperaturmessung
Ergebniswerte
stromleitend
Monitorauflösung

Solche Wörter kennt Textmaker aus dem Stand nicht. Aber auch konjugierte Wörter (er überwies das Geld) werden bisweilen als fehlerhaft unterkringelt.
Ansonsten bietet Textmaker alle Funktionen, die man sich bei einem Schreibprogramm wünscht; das auf den ersten Blick schlanke Programm entpuppt sich als vollwertige und mächtige Textverarbeitung.
Die Hilfefunktion des Programms ist direkt mit dem PDF-Handbuch verknüpft, das keine Fragen offenlässt.

Die Vorteile
Als Killer-Feature muss die Worddokument-Kompatibilität gesehen werden. Wer darauf angewiesen ist, häufig mit DOC-Dokumenten zu hantieren, dabei aber nicht mit Windows und Word hantieren möchte, findet in Textmaker einen eleganten Weg für die DOC-Dokumentbearbeitung.
Vorteil Nr. 2, wenn man das Arbeiten mit OpenOffice gewöhnt ist, dürfte die Startgeschwindigkeit des Programms sein. Ein Klick – und schon ist das Programm geladen. Im direkten Vergleich zu OpenOffice fühlt sich der Programmstart rasend schnell an, was beim großen Funktionsumfang von Textmaker dann doch verwundert. Im Gegenzug zu schlankeren Alternativen wie Abiword, welches ebenfalls flott startet, muss man dabei aber nicht auf Funktionen verzichten.
Ein geniales Feature Textmakers ist zudem die gleichzeitige Unterstützung der alten und neuen Rechtschreibung. Wer abwechselnd mit beiden Varianten arbeiten muss, braucht nicht ständig umzuschalten: „normale“ Fehler werden rot unterkringelt, Schreibweisen in alter Rechtschreibung blau.

Die Stolperfallen
Doch wo Licht ist, ist auch Schatten. Das größte Manko der Linuxversion von Textmaker dürfte sein, dass sich das Programm trotz seiner gefühlten Leichtigkeit beim Start ausgerechnet beim Schreiben selbst träge anfühlt. Dieser Effekt verstärkt sich, je länger ein Dokument ist. Der Grund dafür ist, dass Textmaker Tastatureingaben mit minimaler Verzögerung umzusetzen scheint. Schnellschreiber können praktisch zusehen, wie die Buchstaben von Geisterhand noch auf den Bildschirm gemalt werden, obwohl sie mit dem Tippen bereits aufgehört haben. Diese – wenn auch nur leichte Verzögerung – stört während des Schreibens erheblich. Der Effekt verstärkt sich dadurch, dass der Cursor oft flackert und beim Schreiben verschwindet. Auch das Navigieren mit dem Cursor könnte flotter sein.
Probleme macht auch das Drucken, denn Textmaker druckt stoisch mit dem Standarddrucker. Wenn mehr als ein Drucker unter Linux eingerichtet ist, kann stets nur der erste über Textmaker ansgesprochen werden. Die Schaltflächen zum Einrichten eines weiteren Gerätes sind ausgegraut.


nicht anwählbar: Druckerverwaltung

Gravierender und erheblich störender jedoch ist, dass Textmaker manchmal den Fokus im Dokument verliert, wenn zwischenzeitlich in anderen Anwendungen gearbeitet wurde. Der Cursor ist dann nicht mehr sichtbar und das geöffnete Dokument reagiert auch nicht mehr auf Eingaben mit der Tastatur. Ein Workaround besteht darin, ein Menü mit der Maus zu öffnen und gleich wieder zu schließen, danach spricht auch der Dokumentenbereich wieder auf Mausklicks an.
Der ODT-Import wie -Export ist im Übrigen nicht ausgereift. Importierte Open-Office-Dokumente erfordern viel Nacharbeit, um sie wieder ansehnlich zu bekommen. Bei einem mit Textmaker geschriebenen und in OpenOffice geöffneten ODT tauchten z.B. plötzlich durchgehende Linien am Textende auf, die auch nach dem erneuten Öffnen in Textmaker erhalten blieben und nicht mehr zu entfernen waren.


mit Textmaker erstelltes ODT in Word geöffnet

Ein Öffnen der Datei in Word war überhaupt nicht möglich.

Fazit

Während Textmaker 2008 unter Windows ein Weg zu einem schnellen Office ist, ohne die Microsoft’schen Mondpreise zahlen zu müssen, sich „Ribbons“ aufzwängen zu lassen oder auf ein schwerfälliges OpenOffice zurückzugreifen, ist es unter Linux neben der besseren Startzeit vor allem ein passabler Weg, überhaupt mit DOC-Dokumenten vernünftig arbeiten zu können. Das Arbeiten mit dem Programm macht trotz kleiner Hindernisse Spaß, da es schnell geladen ist und durchdachte Funktionalität bietet.
Das Sympathische an Textmaker ist, dass es neben dem eigenen TMD-Format eine rudimentäre ODT- und eine großartige DOC-Unterstützung bietet, ansonsten aber nicht zu sehr versucht, Word zu kopieren. Textmaker orientiert sich optisch zwar an den klassischen Symbolleisten, wie man sie auch von Word 2003 noch kennt, macht in der Bedienung aber Vieles besser als Word oder auch OpenOffice.
Wer ein natives Linux-Schreibprogramm sucht, das gut mit DOC zurechtkommt und sich im Bedienumfang mit Word oder OpenOffice-Writer messen kann, sollte einen Blick auf Textmaker werfen. Es ist stabil und tut das, was es tun soll: Textverarbeitung abseits des Kolosses OpenOffice, den minimalistischen Editoren oder gar dem befehlgestützten Schreiben in LaTeX. Der Schreibende kann sich auf’s Schreiben konzentrieren und sein Dokument graphisch gestalten.
Für das längere Schreiben – vor allem im ODT-Format – empfiehlt sich jedoch weiterhin das gewohnte OpenOffice bzw. LibreOffice.

Ja ich weiss, eigentlich ist Linux auf der Konsole „beheimatet“ – und irgendwie beneide ich auch diejenigen Freaks, die sich ohne Maus und ohne Ⅹ auf der Konsole bewegen, als lebten sie noch im 286er Zeitalter ;-) .

Aber mich, als selbstbetitelter Compi-Opa, fasziniert einfach die bunte Welt des grafischen Desktops und die Tausenden von Gestaltungsmöglichkeiten, die Ubuntu und Compiz & Co. uns hier bieten. Und seid doch mal ehrlich: So ein cooler Compiz Cube, farblich sauber abgestimmt und mit 3D Fenstern garniert … das ist doch lecker oder?

Nicht umsonst umfasst der, von Suzan im Jahre 2004 zu diesem Thema erstellte Thread Mein Ubuntu-Desktop, mittlerweile satte 1220 Seiten !! mit über 3,4 mio Views. Alter Schwede!

Und genau in diesem Thread lese ich hin und wieder auch – immer dann, wenn mir ein wenig langweilig geworden ist, was die Optik meines Ubuntu Desktops betrifft. So auch vorgestern, als ich auf den Screenshot des Desktops von frankweslar stiess, der mich sofort „anmachte“ (also der Desktop!).

Da ich diese IconBar am Fusse des Desktops, an der mein normales Gnome Panel lag nicht kannte, schrieb ich frankweslar mal an und fragte nach. Prompt bekam ich auch Antwort und sehr hilfsbereit sogar die nötigen Backgroundbilder zur Verfügung gestellt. Danke nochmals!

Es handelte sich also um das scheinbar schon weit verbreitete CAIRO DOCK, mit dem ich nun erstmals zu tun bekam. Kurzerhand aus den Paketquellen installiert und aufgerufen, prangte nun auch an meinem unteren Desktop-Ende solch ein tolles Dock und in Verbindung mit den erhaltenen Hintergründen, wurde ein wirklich schicker neuer Desktop draus – Juchu ;-)



Schick oder?

OpenOffice.org hat zwei Seiten. Eine gute, die Funktionsvielfalt und eine schlechte, das Design. Klingt hart, ist aber leider so. Gründe für diesen Zustand gibt es viele, einige davon möchte ich hier gern erläutern.

  1. Rückstand: Im Laufe der Entwicklung der freien Office-Suite lag der Fokus meist darauf, dem Benutzer alle bekannten Funktionen von Microsoft Office zu kopieren zur Verfügung zu stellen. Während Microsoft schon die ersten Nutzbarkeitsstudien durchführte, war OpenOffice.org noch damit beschäftigt, an den “großen Schrauben” zu drehen. Microsoft hatte also von Anfang an einen Vorsprung – und das bemerkt man bis heute.
  2. Mangelnde Ressourcen: Klipp und klar, mit wenigen Worten ausgedrückt: Geld fehlte und fehlt noch heute. Softwareentwicklung ist teuer, vor allem dann wenn man neben den Programmierern auch noch Leute für Design, Marketing, Usability-Tester etc. bezahlen muss. Eine Community alleine kann ein Projekt dieser Größenordnung leider nicht stämmen, das hat sich in den vergangenene Jahren gezeigt. Man benötigt Profis und die kosten nunmal Geld.
  3. Fehlende Liebe zum Detail: Das folgende Bild verdeutlicht einiges. Dieser Schwarz-Weiß-Gradient überlebt seit vielen Jahren in der Office-Suite. Er sieht billig aus, man benötigt etwa eine Sekunde um so eine Grafik zu erstellen. Er ist betriebssystemunabhängig und kommt sowohl in Windows als auch unter Linux vor. Hat man ihn “vergessen” an das Betriebssystem anzupassen? Ist er schön und ich bin der einzige dem der nicht gefällt? Steht das “Design” dieses Buttons etwa unter Denkmalschutz?
  4. Überfüllte Menüs: Wenn man nicht weiß, wo sich Funktionen befinden, ist es schwierig, sie aufzuspüren. Die Menüs sind lange und verschachtelt. Begutachtet man das Optionsmenü, bekommt man den Eindruck, als wollte man so viele Buchstaben wie möglich auf so wenig Fläche wie möglich pressen. Hier ein Bild zur Veranschaulichung.
  5. Schlechte Ubuntu-Integration: Dieser Punkt trifft hauptsächlich auf Ubuntu und teilweise auch auf Linuxdistributionen im allgemeinen zu. Die Integration in Ubuntu ist schrecklich. Das Programm funktioniert, also es läuft, mehr aber auch nicht. Schön anzusehen ist das Ganze nicht und die Lust am Arbeiten damit verliert man auch.

Hoffnung: Nachdem sich mit LibreOffice ein Fork von OpenOffice.org abgespalten hat und man dort bekanntgab, dass die Oberfläche in den kommenden Jahren renoviert werden soll, besteht zumindest Hoffnung, dass sich Einiges bessert. Allerdings gibt es das Projekt “Renaissance”, ein Projekt, das OpenOffice.org designtechnisch verbessern sollte auch schon seit einigen Jahren, mit minimalen Ergebnissen.

Alternativen

Vielleicht wird LibreOffice ja wirklich mal viel besser, aber was kann der Linux-Nutzer heute machen, wenn er sich mit dem aktuellen Zustand nicht zufrieden gibt? Ja, es gibt Alternativen. Ob die auch das Potential haben gegen OpenOffice.org anzutreten weiß ich nicht. OOo ist mächtig, denn wie schon gesagt, von den Funktionen her kann kaum ein Programm ihm das Wasser reichen.

  • Alternative 1: kOffice (kürzlich umbenannt in Calligra Suite)
    kOffice hat gute Ansätze. Mit Qt als moderne Grundlage scheint die Entwicklung einfacherer und vor allem schneller zu sein als die von OpenOffice.org. Außerdem hat kOffice die Arbeitsleisten auf der rechten Seite. Besonders in Zeiten von Breitbildschirmen ist das ein großer Vorteil im Vergleich zur horizontalen Menüleiste. Leider fehlt dem Programm noch der letzte Schliff, doch zukünftige Versionen werden mit Sicherheit sehr interessant werden.
  • Alternative 2: Microsoft Office (über Wine)
    Ja, man kann es wirklich machen und ich mach es auch oft so. Microsoft Office (bis 2007) läuft ziemlich gut mit Wine. So Dinge wie Integration ins Betriebssystem gibt es zwar nicht, aber das Programm funktioniert (großteils, zumindest Excel und Word).
  • Alternative 3: Google Text und Tabellen
    Plattformübergreifend, kostenlos, beherrscht viele Formate, Dokumente immer und überall verfügbar, sogar auf dem Handy. Probleme gibt es besonders beim Import von größeren Dateien, die nicht mit Google Text und Tabellen erstellt wurden. Außerdem kann man ohne Internet momentan noch nicht damit arbeiten. Als drittes Gegenargument halten Datenschützer es nicht für gut, Google ihre Dokumente zu hinterlassen. Ich bin der Meinung: Für kleine Sachen reichts, für mehr leider noch nicht.

Kommentare anzeigen

Mit unoconv kann man viele Dokument-Formate konvertieren, unterstützte Formate sind unter anderem das  "Open Document Format" (.odt), "MS Word" (.doc), "MS Office Open/MS OOXML" (.xml), "Portable Document Format" (.pdf), "HTML", "XHTML", "RTF", "Docbook" (.xml)...  

Funktionen:

  • konvertiert alle Formate die OpenOffice unterstützt
  • OpenOffice unterstützt bis zu 100 Dokument Formate icon smile unoconv: umwandlung zwischen allen Dokument Formaten von OpenOffice debian
  • kann genutzt werden um Vorgänge zu automatisieren (Skripte -> z.B. shell oder php)
  • unterstützt weitere Tools -> "asciidoc", "docbook2odf/xhtml2odt"
  • kann Style-Vorlagen (templates) während der Konvertierung anwenden (corporate identity)
  • kann sowohl als Server, als auch als Client fungieren


Formate:

Es folgt eine Liste von Ausgabe-Formaten von OpenOffice (und somit auch von unoconv), die Eingabe-Formate können sich jedoch unterscheiden -> INPUT / EXPORT


Export:

  • bib - BibTeX [.bib]
  • doc - Microsoft Word 97/2000/XP [.doc]
  • doc6 - Microsoft Word 6.0 [.doc]
  • doc95 - Microsoft Word 95 [.doc]
  • docbook - DocBook [.xml]
  • html - HTML Document (OpenOffice.org Writer) [.html]
  • odt - Open Document Text [.odt]
  • ott - Open Document Text [.ott]
  • ooxml - Microsoft Office Open XML [.xml]
  • pdb - AportisDoc (Palm) [.pdb]
  • pdf - Portable Document Format [.pdf]
  • psw - Pocket Word [.psw]
  • rtf - Rich Text Format [.rtf]
  • latex - LaTeX 2e [.ltx]
  • sdw - StarWriter 5.0 [.sdw]
  • sdw4 - StarWriter 4.0 [.sdw]
  • sdw3 - StarWriter 3.0 [.sdw]
  • stw - Open Office.org 1.0 Text Document Template [.stw]
  • sxw - Open Office.org 1.0 Text Document [.sxw]
  • text - Text Encoded [.txt]
  • txt - Plain Text [.txt]
  • vor - StarWriter 5.0 Template [.vor]
  • vor4 - StarWriter 4.0 Template [.vor]
  • vor3 - StarWriter 3.0 Template [.vor]
  • xhtml - XHTML Document [.html]
  • [...]


Installation:

aptitude install unoconv asciidoc docbook2od


Beispiele 1: Standard

Als erstes ein simples Beispiel, hier wird einfach "odt" in ein "pdf" umgewandelt. Sehr hilfreich ist auch sich die Optionen einmal anzuschauen.

# unoconv - Dienst starten
unoconv --listener &
# odt -> pdf 
unoconv -f pdf some-document.odt
# Standard 
(unoconv --server localhost --port 2002 --stdout -f pdf some-document.odt)

Beispiele 2: Vorlage

Wie bereits auf der Entwicklerseite zu lesen ist, hilf uns ein Screenshot nicht wirklich weiter, daher folgt ein zweites Beispiel mit Vorlagen.

# Beispiel Dateien herunterladen 
wget http://dag.wieers.com/cv/Makefile
wget http://dag.wieers.com/cv/curriculum-vitae-dag-wieers.txt
wget http://dag.wieers.com/cv/curriculum-vitae-docbook.ott
 
# unoconv - Dienst starten
unoconv --listener &
# resume.txt -> resume.xm
asciidoc -b docbook -d article -o resume.xml resume.txt
# resume.xml -> resume.tmp.odt
docbook2odf -f --params generate.meta=0 -o resume.tmp.odt resume.xml
# resume.tmp.odt -> resume.odt + Template
unoconv -f odt -t template.ott -o resume.odt resume.tmp.odt
# resume.tmp.odt -> resume.pdf + Template
unoconv -f pdf -t template.ott -o resume.pdf resume.odt
# resume.tmp.odt -> resume.html + Template
unoconv -f html -t template.ott -o resume.html resume.odt
# resume.tmp.odt -> resume.doc + Template
unoconv -f doc -t template.ott -o resume.doc resume.odt

Beispiele 3: Server <-> Client

Wie bereits erwähnt kann man den Dienst auch als Server starten und von anderen Rechnern darauf zugreifen.

# unoconv - Server-Dienst starten
unoconv --listener --server 1.2.3.4 --port 4567
# Client -> Server 
unoconv --server 1.2.3.4 --port 4567

Beispiele 4: PHP

Man kann dies nun auch in Shell-Skripten nutzen oder wie in diesem Beispiel in PHP einbinden.

$this->Filegenerator = new FilegeneratorComponent ($this->params["form"]['uploaddocfile']);
// if the filegenerator did all it's magic ok then process
if($this->Filegenerator)
// returns the text version of the PDF
$text = $this->Filegenerator->convertDocToTxt();
// returns the html of the PDF
$html = $this->Filegenerator->convertDocToHtml();
// returns the generated pdf file
$pdf = $this->Filegenerator->convertDocToPdf($doc_id);
}
<?php
/**
* Class Used to convert files.
*@author jamiescott.net
*/
class FilegeneratorComponent extends Object {
 
// input folder types
private $allowable_files = array ('application/msword' => 'doc' );
// variable set if the constuctor loaded correctly.
private $pass = false;
// store the file info from constuctor reference
private $fileinfo;
 
/**
* Enter description here...
*
* @param array $fileinfo
* Expected :
* (
[name] => test.doc
[type] => application/msword
[tmp_name] => /Applications/MAMP/tmp/php/php09PYNO
[error] => 0
[size] => 79360
)
*
*
* @return unknown
*/
function __construct($fileinfo) {
 
// folder to process all the files etc
define ( 'TMP_FOLDER', TMP . 'filegenerator/' . $this->generatefoldername () . '/' );
 
// where unoconv is installed
define ( 'UNOCONV_PATH', '/usr/bin/unoconv' );
// where to store pdf files
define ( 'PDFSTORE', ROOT . '/uploads/generatedpdfs/' );
// where to store doc files
define ( 'DOCSTORE', ROOT . '/uploads/docfiles/' );
// apache home dir
define ( 'APACHEHOME', '/home/apache' );
// set some shell enviroment vars
putenv ( "HOME=".APACHEHOME );
putenv ( "PWD=".APACHEHOME );
 
// check the file info is passed the tmp file is there and the correct file type is set
// and the tmp folder could be created
if (is_array ( $fileinfo ) &amp;amp;&amp;amp; file_exists ( $fileinfo ['tmp_name'] ) &amp;amp;&amp;amp; in_array ( $fileinfo ['type'], array_keys ( $this->allowable_files ) ) &amp;amp;&amp;amp; $this->createtmp ()) {
 
// bass by reference
$this->fileinfo = &amp;amp;$fileinfo;
// the constuctor ran ok
$this->pass = true;
// return true to the instantiation
return true;
 
} else {
// faild to instantiate
return false;
 
}
 
}
 
/**
*      * takes the file set in the constuctor and turns it into a pdf
* stores it in /uploads/docfiles and returns the filename
*
* @return filename if pdf was generated
*/
function convertDocToPdf($foldername=false) {
 
if ($this->pass) {
 
// generate a random name
$output_pdf_name = $this->generatefoldername () . '.pdf';
 
// move it to the tmp folder for processing
if (! copy ( $this->fileinfo ['tmp_name'], TMP_FOLDER . 'input.doc' ))
die ( 'Error copying the doc file' );
 
$command = UNOCONV_PATH;
$args = ' --server localhost --port 2002 --stdout -f pdf ' . TMP_FOLDER . 'input.doc';
 
$run = $command . $args;
 
//echo $run; die;
$pdf = shell_exec ( $run );
$end_of_line = strpos ( $pdf, "\n" );
$start_of_file = substr ( $pdf, 0, $end_of_line );
 
if (! eregi ( '%PDF', $start_of_file ))
die ( 'Error Generating the PDF file' );
 
if(!file_exists(PDFSTORE.$foldername)){
mkdir(PDFSTORE.$foldername);
}
 
// file saved
if(!$this->_createandsave($pdf, PDFSTORE.'/'.$foldername.'/', $output_pdf_name)){
die('Error Saving The PDF');
}
 
return $output_pdf_name;
 
}
 
}
 
/**
* Return a text version of the Doc
*
* @return unknown
*/
function convertDocToTxt() {
 
if ($this->pass) {
 
// move it to the tmp folder for processing
if (! copy ( $this->fileinfo ['tmp_name'], TMP_FOLDER . 'input.doc' ))
die ( 'Error copying the doc file' );
 
$command = UNOCONV_PATH;
$args = ' --server localhost --port 2002 --stdout -f txt ' . TMP_FOLDER . 'input.doc';
 
$run = $command . $args;
 
//echo $run; die;
$txt = shell_exec ( $run );
 
// guess that if there is less than this characters probably an error
if (strlen($txt) < 10)
die ( 'Error Generating the TXT' );
 
// return the txt from the PDF
return $txt;
 
}
 
}
 
/**
* Convert the do to heml and return the html
*
* @return unknown
*/
function convertDocToHtml() {
 
if ($this->pass) {
 
// move it to the tmp folder for processing
if (! copy ( $this->fileinfo ['tmp_name'], TMP_FOLDER . 'input.doc' ))
die ( 'Error copying the doc file' );
 
$command = UNOCONV_PATH;
$args = ' --server localhost --port 2002 --stdout -f html ' . TMP_FOLDER . 'input.doc';
 
$run = $command . $args;
 
//echo $run; die;
$html= shell_exec ( $run );
$end_of_line = strpos ( $html, "\n" );
$start_of_file = substr ( $html, 0, $end_of_line );
 
if (! eregi ( 'HTML', $start_of_file ))
die ( 'Error Generating the HTML' );
 
// return the txt from the PDF
return $html;
 
}
 
}
/**
* Create file and store data
*
* @param unknown_type $data
* @param unknown_type $location
* @return unknown
*/
function _createandsave($data, $location, $file) {
 
if (is_writable ( $location )) {
 
// In our example we're opening $filename in append mode.
// The file pointer is at the bottom of the file hence
// that's where $somecontent will go when we fwrite() it.
if (! $handle = fopen ( $location.$file, 'w' )) {
trigger_error("Cannot open file ($location$file)");
return false;
}
 
// Write $somecontent to our opened file.
if (fwrite ( $handle, $data ) === FALSE) {
trigger_error("Cannot write to file ($location$file)");
return false;
}
 
fclose ( $handle );
return true;
 
} else {
trigger_error("The file $location.$file is not writable");
return false;
}
 
}
 
function __destruct() {
 
// remove the tmp folder
 
if (file_exists ( TMP_FOLDER ) &amp;amp;&amp;amp; strlen ( TMP_FOLDER ) > 4)
$this->removetmp ();
 
}
 
/**
* Create the tmp directory to hold and process the files
*
* @return unknown
*/
function createtmp() {
 
if (is_writable ( TMP )) {
 
if (mkdir ( TMP_FOLDER ))
return true;
 
} else {
 
return false;
}
 
return false;
 
}
 
/**
* Delete the tmp dir
*
* @return unknown
*/
function removetmp() {
 
if (strlen ( TMP_FOLDER ) > 3 &amp;amp;&amp;amp; file_exists ( TMP_FOLDER )) {
 
if ($this->recursive_remove_directory ( TMP_FOLDER ))
return true;
 
}
 
return false;
}
 
/**
* Return a rendom string for the folder name
*
* @return unknown
*/
function generatefoldername() {
 
return md5 ( microtime () );
 
}
 
/**
* Recursivly delete directroy or empty it
*
* @param unknown_type $directory
* @param unknown_type $empty
* @return unknown
*/
function recursive_remove_directory($directory, $empty = FALSE) {
// if the path has a slash at the end we remove it here
if (substr ( $directory, - 1 ) == '/') {
$directory = substr ( $directory, 0, - 1 );
}
 
// if the path is not valid or is not a directory ...
if (! file_exists ( $directory ) || ! is_dir ( $directory )) {
// ... we return false and exit the function
return FALSE;
 
// ... if the path is not readable
} elseif (! is_readable ( $directory )) {
// ... we return false and exit the function
return FALSE;
 
// ... else if the path is readable
} else {
 
// we open the directory
$handle = opendir ( $directory );
 
// and scan through the items inside
while ( FALSE !== ($item = readdir ( $handle )) ) {
// if the filepointer is not the current directory
// or the parent directory
if ($item != '.' &amp;amp;&amp;amp; $item != '..') {
// we build the new path to delete
$path = $directory . '/' . $item;
 
// if the new path is a directory
if (is_dir ( $path )) {
// we call this function with the new path
recursive_remove_directory ( $path );
 
// if the new path is a file
} else {
// we remove the file
unlink ( $path );
}
}
}
// close the directory
closedir ( $handle );
 
// if the option to empty is not set to true
if ($empty == FALSE) {
// try to delete the now empty directory
if (! rmdir ( $directory )) {
// return false if not possible
return FALSE;
}
}
// return success
return TRUE;
}
}
}
?>

Wonach wurde gesucht?

Ähnliche Blog-Einträge

13. Dezember 2010

Ich schaue mir gerade ein Video an, in dem Mark Shuttleworh über Ubuntu Unity spricht und einige Dinge näher erklärt. Teilweise sehr interessant und ich werde eventuell später noch einmal näher darauf eingehen.

Mir ist dabei aber ein Punkt aufgefallen, über den er gar nicht gesprochen hat. Er taucht nur auf einem Sheet auf.

The end of systray in 11.04

The End of Systray

The End of Systray

Ich kann das hier auch bestätigen. Kein Systray mehr im Panel. Das Fehlen ist also kein Bug sondern beabsichtigt.

Um ein’s vorweg zu nehmen. Das gilt nur für Unity, nicht für Gnome. Der Gnome Desktop wird nach wie vor parallel zu Unity verfügbar sein (einfach beim Login umschalten) und auch ganz normal ein Systray haben.

… und lernt immer noch was dazu.

Thema der letzten Tage: Postfix. Am Wochenende (Sonntag) schaute ich mal in mein Munin, um zu gucken, ob der Server noch läuft und war über die Postfix-Grafik etwas verwundert:

Nun, sagen wir mal so: Bis auf die 2 pinken Peaks, die beim Test von Abusenet und einer anderen Seite entstanden sind, habe ich von dem Traffic kaum etwas verursacht. Nun weiß ich, was es war, ich zweifelte erst an meiner SASL-Authentifizierung. Aber im Grunde war der Auslöser für den “delivered”-Traffic keine einzige normal gesendete Nachricht.

Das Zauberwort an dieser Stelle nennt sich “backscatter” und war mir bisher kein bewusster Begriff, wenngleich ich vermute, dass mein GMX-Konto auch einer solchen Attacke zum Opfer gefallen ist.

Nun habe ich mit dem Tutorial von Alex Langer mal einen backscatter-Filter gegen die Russenmails, die Uhren verkaufen wollen, eingebaut, mal sehen ob das hilft. Ansonsten muss ich mich mal weiter kundig machen, ob man die “User not recognized”-Mails nicht irgendwie komplett abschalten kann. Ist zwar nicht die feine englische Art, aber mir lieber, als das andere zugespammt werden.

Wenn Postfix also einfach ist, dann will ich never ever einen komplizierten Mailserver aufsetzen müssen…