ubuntuusers.de

28. Januar 2009

Wer kennt das nicht: Man hat mal wieder ein paar Fotos geschossen und möchte sie gerne der Bekanntschaft zeigen, aber in fremde Hände sollten sie nicht geraten. Natürlich könnte man ein Archiv erstellen, es verschlüsseln und dann einem Datenaustausch-Dienst wie Senduit anvertrauen. Das jedoch dürfte so manche Oma überfordern, die Bilder des Enkels bleiben ihr dann verschlossen.
<!--break-->
Googles Picasa liefert hier eine ganz nette Idee, indem über eine sehr kryptische URL der Zugriff auf ein Album gewährt werden kann, ganz ohne Benutzername und Kennwort. Möchte man seine Bildchen jedoch nicht einem fremden Dienst anvertrauen, steht eigener Webspace zur Verfügung und nutzt man ein Bild-Verwaltungprogramm, das wie F-Spot den Export von Bildern als Webalbum erlaubt, so bietet sich einem eine gute Alternative an.

Webspace einrichten
Um eine möglichst schlecht zu erratende URL zu erzeugen bietet sich das programm pwgen, es kann bei den meisten Linux-Distributionen aus den Paketquellen installiert werden. Danach erzeugt pwgen -scn 24 1 einen schwer zu erratende Zeichenkette mit 24 Zeichen, die als Teil der URL genutzt werden soll (Beispiel: eIIbNi2xHeSZIh6tSk270eUH). Es wird nun im verfügbaren Webspace ein Verzeichnis angelegt, das eben jede Zeichenkette als Namen nutzt. Wird der Webspace nicht anderweitig verwendet, möchte man das Wurzelverzeichnis nicht aufgelistet haben. Daher sollte der Webserver für das entsprechende Verzeichnis die Option Indexes nicht gesetzt haben (die Zeile ist im folgenden beispiel auskommentiert und wurde ersetzt):

        <Directory "/var/www/bilder">
#               Options Indexes FollowSymLinks MultiViews
                Options FollowSymLinks MultiViews
                AllowOverride None
                Order allow,deny
                allow from all
        </Directory>

Eine index.html trägt ebenso dazu bei, die angelegten Unterverzeichnisse zu verbergen. Gegebenenfalls müssen noch die Dateiberechtigungen angepasst werden, sodass der Apache auch Zugriff auf das Verzeichnis und dessen Inhalt erhält.

Das Web-Album
F-Spot: Export in Ordner F-Spot bietet eine komfortable Möglichkeit, ausgewählte Bilder zu exportieren und in eine Bildergalerie mit einem statischen HTML-Grundgerüst zu verwandeln. Hierzu markiert man die gewünschten Bilder in F-Spot und wählt dann Foto >> Exportieren nach >> Ordner. Im nun folgenden Dialog wählt man nun den Zielordner, einen Namen für die Galerie sowie eine kurze Beschreibung. Als Exportverfahren muss Eigenständige Web-Galerie anlegen ausgewählt werden. Hat man es mit großen Bildern zu tun, bietet sich auch eine begrenzung der Größe an, zum Beispiel auf 2048 Pixel an der längsten Seite, damit kann das Bild immer noch gut als Bildschirmhintergrund dienen. Sollen die eigenen vergebenen Tags (Markierungen) beziehungsweise die für sie eingerichteten Symbole mit exportiert werden, so kann dies ebenfalls angehakt werden. Ein Klick auf Export erstellt einen Ordner mit dem Namen der Galerie. Dessen Inhalt muss nun noch in das oben erstellte Verzeichnis kopiert werden, zum Beispiel per FTP oder SCP, und schon sind die Bilder für alle einsehbar, denen die genaue URL (im Beispiel: http://www.example.net/eIIbNi2xHeSZIh6tSk270eUH/) mitgeteilt wurde.

 

Bei meinem letzten KDE 4-Besuch hat mit die Desktopumgebung sehr gut gefallen. Allerdings hatte ich einige Fehler entdeckt, sodass ich noch nicht hätte wechseln wollen. Wurden diese mit KDE 4.2 ("The Answer") behoben?

Arbeitsflächenmenü denglisch

Dass im Menü der virtuellen Arbeitsflächen zwar deutsche Bezeichnungen voreingestellt waren, aber englische nachrückten, war der Aufhänger der letzten Kritik. Das ist behoben worden. Allerdings sind nun an anderen Stellen englische Textfetzen - was aber diesmal in Ordnung ist. Sowas will ich nur nach der Verpackung durch einen Distributor kritisieren. In Kubuntu 9.04 muss es also stimmen.

"Arbeitsfläche wechseln" nicht belegt

Das wird offenbar nicht als Problem gesehen. Der Standard ist hier immer noch "leer". In meinen Augen ist das nicht nutzerfreundlich. Bleibt abzuwarten, ob die Distributoren das verbessern - auch dies wird Kubuntu 9.04 zeigen.

Kopete-Popups

Kritikpunkt hier war, dass die Einstellung schwer auffindbar war.

Im Grunde ist das Konzept aber ok. Unter "Einstellungen -> Benachrichtungen festlegen" kann man das konfigurieren.

Leider sind die Popups an sich scheinbar kaputt gegangen. Eines blieb eben einfach hängen, nachdem ich die Position anpassen wollte, nun erscheinen sie nur noch ganz kurz. In Folge dessen stürzte KDE 4 mit einem Segfault ab. So war das nicht gedacht. Immerhin startet es sich selbst problemlos neu.

Nicht optimal: Kopetes Chatfenster gruppiert sich standardmäßig mit der Kontaktliste, sodass man über die Taskbar nicht einfach so an das Chatfenster kommt. Umstellbar in zwei Klicks, aber sollte das nicht Standard sein?

An sich ist das mir aber nicht wichtig. Psi bin sowieso gewöhnt und bietet sich für die Nutzung unter KDE angesichts von Qt wirklich an.

Balloon-Popup falsch platziert

Alle bisher erschienen Balloon-Popups waren ordentlich platziert.

Tastatureinstellungsmenü mit Darstellungsproblemen

Das Menü startete klein. Im Grunde gehen kleine Fenster auch bei Menüs in Ordnung, allerdings konnte man so nichts einstellen, die Darstellung ging kaputt.

Darstellungsfehler konnte ich nun auch bei kleiner Fenstergröße keine mehr entdecken. Allerdings wird immer noch sehr viel Platz verschenkt:

Warum schiebt man das Hauptfenster nicht ganz nach links?

Konqueror scrollt lahm

Das Problem bleibt bestehen. Möglich, dass es besser geworden ist, nutzbar allerdings ist Konqueror so noch nicht.

Das Scrollen ist nicht wirklich lahm. Es fühlt sich mehr so an, als sei die Scrollfunktion etwas betrunken.

Firefox funktioniert auch unter KDE 4 einwandfrei, das Aussehen integriert sich. Daher kann man auch mit einem kaputten ohne Konqueror KDE gut nutzen.

Logout bestätigen

Hier kann man wirklich streiten, ob das ein Fehler ist - auf jeden Fall blieb es wie es war. Allerdings ist es durch das Hover-Menü nur zwei Klicks entfernt. Geht ok.

Kleine Grafikfehler

Die sind noch da. Dafür treten sie nur sehr selten auch. Also nicht mehr immer, wenn man KDE startet (stattdessen wird dann das Bild kurz schwarz, was auch irritierend ist). Aber immer noch ab und an, wenn man ein Fenstermenü öffnet - z.B. die Lesezeichen im Firefox. Interessanterweise nur, wenn das System nahezu ausgelastet ist (z.B. wenn Amarok die Musikdatenbank zusammenstellt).

Farbabstimmung von Hintergrund und Taskbar

Natürlich ist das rein subjektiv, es sei hier nur der Vollständigkeit halber erwähnt und um das neue Aussehen zu loben. Beim alten fand die Farbabstimmung zwischen Taskbar und Hintergrund nicht perfekt. Das neue Aussehen gefällt mir in dieser Hinsicht besser.

Fazit

Dass mir KDE 4.2 mitten beim Schreiben dieses Beitrags abgestürzt ist ist hoffentlich kein Zeichen. Zumindest stabil sollte es nun nämlich sein, denn viele meiner Kritikpunkte sind nicht entkräftet worden. Die Grafikfehler immerhin wurden verringert. Ansonsten wurde vornehmlich an anderen Stellen gewerkelt, wie ja auch die Ankündigung verrät.

Angesichts der Verbesserungen würde ich dazu raten, KDE bei Gelegenheit mal zu testen.

Aber im Hinblick auf die alten Kritikpunkte ist Version 4.2 nicht die endgültige Antwort. Es ist ihr Anfang.


Wenn man die Standard-Shell in einer NIS-Umgebung setzen will hat man ein paar Probleme. Zuerst einmal funktioniert ein simples:

chsh -s /bin/zsh

nicht. Das liefert einem nur eine Fehlermeldung:

$ chsh -s /bin/zsh
chsh: can only change local entries; use ypchsh instead.

Der Grund dafür ist, dass die Standard-Shell in der /etc/passwd gespeichert wird. Diese wird in einer NIS-Umgebung allerdings durch einen NIS-Server bereitgestellt und wenn man sie ändern möchte muss dies in der passwd der NIS-Konfiguration des Servers geschehen. Dazu gibt es wie oben von der Fehlermeldung angedeutet das Programm ypchsh. yp steht übrigens für YellowPage was der alte Name von NIS war. Die meisten NIS-Tools tragen aber auch heute noch das yp im Namen.

Mit:

$ ypchsh $USER

könnte man nach der Passworteingabe diese Information nun auf dem NIS-Server ändern. Doch auch das trägt Probleme. Wenn man nämlich die Standard-Shell, zum Beispiel wie ich, auf die Z-Shell ändern möchte dann ist dies nur praktikabel, wenn auch auf jedem Rechner in der NIS-Umgebung die Z-Shell installiert ist. Ansonsten kann man sich nichtmehr auf einem Rechner einloggen auf welchem die Z-Shell nicht installiert ist. Man würde nach dem Einloggen einfach die Meldung erhalten “Can’t execute /bin/zsh.” und würde wieder auf den Anmeldedialog zurückgeworfen werden.

Diese Lösung ist bei einer weniger weit verbreiteten Shell deswegen nicht sinnvoll, wenn man nicht 100%ig sicher sein kann, dass auf jedem Host zu dem man sich verbinden muss diese Shell auch installiert ist. Ich habe die Standard-Shell deswegen weiterhin auf /bin/bash stehen gelassen.

Da ich trotzdem auf allen Rechnern wo es möglich ist die Z-Shell benutzen möchte habe ich mir etwas anderes ausgedacht. Ich habe ganz am Anfang in meine ~/.bashrc einfach diese Abfrage eingefügt:

if [ -f /bin/zsh ];then
	/bin/zsh
fi

Damit wird auf jedem Host auf welchem die Z-Shell installiert ist die Z-Shell gestartet, wenn man sich auf einem tty einloggt bzw. ein Terminal startet.

Einziger Nachteil dieser Methode ist, dass man quasi zwei Shells laufen hat und zwar wird die Z-Shell von der Bash gestartet, wobei die Bash aber nicht beendet wird. Hier mal ein Ausschnitt von pstree welcher ziemlich gut zeigt, dass die Z-Shell nur ein Kindprozess der Bash ist:

     │                                            ├─urxvtd─┬─bash───dumpcap
     │                                            │            ├─bash───vim
     │                                            │            └─bash───zsh───pstree

Eine andere praktikable Möglichkeit ist mir bis jetzt noch nicht eingefallen. Es gilt also abzuwägen ob einem die Vorteile seiner Lieblings-Shell den Overhead der Bash wert sind. Wobei der Overhead nun nicht so gewaltig ist, was allerdings natürlich auch von den vorhandenen Rescourcen abhängt.

Update:

Henning hat in einem Kommentar die Lösung für obiges Problem beschrieben:

if [ -e /bin/zsh ];then
	exec /bin/zsh
fi

Dies führt dazu, dass der Bash-Prozess beendet wird und nur noch die Z-Shell läuft, also genau das was man haben möchte und die perfekte Lösung um seine Lieblings-Shell in einer NIS-Umgebung zu setzen :)

27. Januar 2009


Gerade eben bin ich auf ein nettes Plugin für GIMP gestoßen. Das Plugin macht eigentlich nichts weiter, als das Bild um 45° zu drehen und noch ein paar Effekte hinzuzufügen.

Um das ganze auszuprobieren, muss man sich das Script herunterladen und als “mericet-makeweb20.scm” im Ordner

~/.gimp-2.6/scripts

bzw.

/usr/share/gimp/2.0/scripts

speichern. Danach GIMP starten und im Filter-Menü unter Script-Fu die Skripte auffrischen. Das Plugin sollte nun im Filter-Menü auftauchen (unter Mericet).

Das Logo aus dem letzten Beitrag sieht nun folgendermaßen aus:

logoeffekt

Es ist soweit. KDE 4.2 wurde freigegeben und steht nun zum Download bereit. Fertige Pakete gibt es schon für folgende Distributionen

  • Debian KDE 4.2.0 Pakete sind im experimentellen Repository verfügbar. Installations Information.
  • Kubuntu Pakete werden in der kommenden Version “Jaunty” (9.04) enthalten sein und sind natürlich auch als Update für die stabile Version Kubuntu 8.10 (”Intrepid”) verfügbar. Weitere Informationen können in der Ankündigung auf Kubuntu.org nachgelesen werden.

Im offiziellen Release Announcment finden sich einige Screenshots und Videos zum Desktop. Sobald ich die Version getestet habe werde ich natürlich darüber berichten.

Habt ihr es schon installiert ?  Wie gefällt es euch ? Wenn einer von euch auf einer der Release Party war, dann schreibt mal wie es dort war. Bisher hat es bei mir zeitlich nicht funktioniert.

Quellen

Viel Freude mit KDE 4.2

Weitere Artikel:

Keith Curtis hat in seinem Buch After The Software Wars ganz begeistert über C# berichtet, weshalb ich die Sprache unter Ubuntu 8.10 unbedingt einmal ausprobieren möchte. Da eine C#-Unterstützung erst für KDevelop 4 Zeit noch geplant ist, habe ich Mono und MonoDevelop installiert.

Um mit C# unter Gnu/Linux Programme zu entwickeln, benutzt man am besten MonoDevelop als integrierte Entwicklungsumgebung (IDE) für Gnome. Außerdem braucht man noch die Mono .NET Laufzeitumgebung. Für Ubuntu 8.10 und Debian 5.0 empfiehlt sich daher eine umfangreiche Installation aller benötigten Pakete mit folgendem Befehl:

apt-get install mono-gmcs mono-gac mono-utils monodevelop
monodoc-browser monodevelop-nunit monodevelop-versioncontrol mono-xsp
Anschließend findet man MonoDevelop im Gnome-Menü unter Anwendungen -> Entwicklung -> MonoDevelop.

Bei openSUSE 11.1 reicht es dagegen, einfach alle Pakete für MonoDevelop in YaST auszuwählen:

MonoDevelop unter openSUSE 11 installieren.

MonoDevelop mit YaST installieren.

Dummerweise fehlt bei Debian und Ubuntu "Intrepid Ibex" genauso wie bei openSUSE 11.1 das deutsche Sprachpaket. Aber da kann man abhelfen. Um das Sprachpaket zu installieren braucht man ersmal GNU gettext. Dann lädt man die Sprachdatei de.po herunter und wandelt sie in eine binäre um:

msgfmt -o monodevelop.mo de.po
Daraufhin erhält man die Datei monodevelop.mo, die man in den Ordner /usr/share/locale/de/LC_MESSAGES/ kopiert:

sudo cp monodevelop.mo /usr/share/locale/de/LC_MESSAGES/
Startet man anschließend MonoDevelop wieder, hat man die Menüs größtenteils auf Deutsch.

Bücher über C# und Mono:

Die letzte Version von GCstar ist nun mittlerweile ein paar Monate alt. Im Oktober wurde Version 1.4.3 zum Download freigegeben. An und für sich keine besonders lange Zeit, für die Plugins die die Informationen zu Filmen etc. aus dem Internet holen wohl schon, denn die Webseiten von Amazon, imdb.com und Co werden ständig verändert. So kann es schon einmal passieren, dass man schnell die Meldung bekommt, dass ein Film nicht gefunden werden kann.

Dagegen kann man aber etwas tun, auch wenn es kein neues Release in der Zwischenzeit gibt. Mittels sudo gcstar -u kann man die Dateien einfach und schnell aktualisieren lassen und schon kann man die Filminfos wieder aus dem Internet ziehen.

Dabei werden jedoch nicht nur die Website-Plugins, sondern alle verfügbaren Updates installiert. Möchte man wirklich nur die Website-Plugins aktualisieren, so funktioniert das mit sudo gcstar -u -w.

Weitere Infos zum Theme gibt es im GCstar-Wiki.

26. Januar 2009

Wie ich hier schon schrieb, brauche ich zwecks beruflicher Notwendigkeit noch eine funktionierende Windows-Installation, auch wenn ich ansonsten komplett nur noch unter Ubuntu unterwegs bin.
Welti schlug in einem Kommentar vor, es mit Windows in der VirtualBox zu versuchen.
Nun, mittlerweile habe ich Win in der VM laufen, und es läuft auch alles. Nur das, wofür ich es brauche, kriege ich nicht zum Laufen.

Mir geht es hauptsächlich darum, einen WLAN-Access-Point per USB konfigurieren zu können. Normalerweise ist das kein Problem (Bisher ja immer gemacht) aber irgendwie kriege ich es bisher nicht hin, den Treiber dafür zu installieren. Ich habe jedoch schlichtweg keine Ahnung, ob ich irgendwas übersehe, oder ob in der VM die Funktionalität so eingeschränkt wird, dass diese Funktion einfach nicht möglich ist. Ich gehe aber derzeit eher davon aus, dass ich etwas übersehe, bzw. falsch angehe.
Dass die OSE USB nicht unterstützt, habe ich herausgefunden, und daher dann die Closed-Source-Variante installiert. Daran liegt es also nicht. ;o)
Es wird ja auch ein Gerät erkannt, nur mit dem Treiber ist es irgendwie ein Problem.

Da heißt es weiter hoffen, denn eine VM wäre mir doch lieber als ein DualBoot-System. Die Performance ist dafür absolut ausreichend.

//EDIT: Es funktioniert. Der Kommentar hat mich auf den richtigen Weg geführt. Lediglich die devgid war eine andere.
Wer es noch einmal genauer braucht, kann es im Ubuntu-Wiki finden.

Jetzt kann das Notebook ohne Dualboot auskommen, wunderfein. :o))

ufw (uncomplicated firewall) ist zwar die Standard-Firewall von Ubuntu, aber im Auslieferungszustand bei der Desktop-Version nicht aktiviert. Nach einem

sudo ufw enable
sudo ufw default deny

ist sie aktiv und befolgt folgende Regeln (siehe Ubuntu-Wiki) in Intrepid Ibex:

  1. Alle loopback-Verbindungen akzeptieren, d.h. vom lokalen Rechner aus kann man auf jeden beliebigen Port zugreifen.
  2. Alle ausgehenden Verbindungen zulassen.
  3. Alle eingehenden Verbindungen ablehnen.
  4. Alle abgelehnten Pakete in die Syslog schreiben (–limit 3/min), also maximal drei Einträge pro Minute.

Ich habe gleich mal den SSH-Zugang freigeschaltet durch ein

sudo ufw allow OpenSSH

Um einzelne Anwendungen/Ports frei zu schalten, habe ich mir noch ein paar zusätzliche Profile im Verzeichnis /etc/ufw/applications.d/ erstellt:

$ cat deluge
[Deluge]
title=Deluge Bittorrent Client
description=Deluge is an open source bittorrent client.
ports=5050,5051/tcp
$ cat vino-server
[vino-server]
title=Vino VNC Server
description=Vino is an open source VNC server
ports=5900/tcp
$ cat exim
[Exim SMTP]
title=Exim Message Transfer Agent
description=Exim is an open source mail transfer agent (MTA) providing services such as SMTP to send e-mails.
ports=25/tcp
$ cat openldap
[OpenLDAP]
title=Server for the Lightweight Directory Access Protocol (LDAP)
description=OpenLDAP is an open source implementation of a Lightweight Directory Access Protocol Server
ports=389/tcp
 
[OpenLDAP Secure]
title=Secure Server for the Lightweight Directory Access Protocol (LDAPS)
description=OpenLDAP is an open source implementation of a Lightweight Directory Access Protocol Server
ports=636/tcp
$ cat dovecot-managesieve
[Dovecot Managesieve]
title=Dovecot Managesieve Protocol
description=Dovecot Managesieve allows to remotely administer sieve filters
ports=2000/tcp

Danach habe ich VNC, deluge, exim, dovecot imap und imaps, CUPS, Samba, LDAP (wegen Adressbuch) für das lokale Netz freigeschalten mit

sudo ufw allow from 192.168.0.0/16 to any app CUPS
sudo ufw allow from 192.168.0.0/16 to any app Samba
sudo ufw allow from 192.168.0.0/16 to any app "Dovecot IMAP"
sudo ufw allow "Dovecot Secure IMAP"
sudo ufw allow from 192.168.0.0/16 to any app "Dovecot Managesieve"
sudo ufw allow from 192.168.0.0/16 to any app vino-server
sudo ufw allow Deluge
sudo ufw allow from 192.168.0.0/16 to any app "OpenLDAP"
sudo ufw allow from 192.168.0.0/16 to any app "OpenLDAP Secure"
sudo ufw allow from 192.168.0.0/16 to any app "Exim SMTP"

bzw. falls man nicht Exim sondern Postfix einsetzt, welches standardmäßig installiert ist, die letzte Zeile ersetzen mit

sudo ufw allow from 192.168.0.0/16 to any app "Postfix"
sudo ufw allow from 192.168.0.0/16 to any app "Postfix Submission"

Die Regeln werden übrigens in /var/lib/ufw/user.rules gespeichert. Eine Anleitung zur Erstelltung eigener ufw-Regeln, findet sich in der Hilfe der Ubuntu Server Edition. Im Ubuntu-Forum sind außerdem einige Beispiele zu ufw.

Wenn man wie ich VirtualBox über Proxy ARP auf das Netzwerk zugreifen lässt, sollte man in der Datei /etc/default/ufw in folgender Zeile das DROP auf ACCEPT ändern, da ansonsten die virtuellen Maschinen nur noch Verbindungen zum Host aufbauen können.

# set the default forward policy to ACCEPT or DROP.  Please note that if you
# change this you will most likely want to adjust your rules
# Default was DROP
DEFAULT_FORWARD_POLICY="ACCEPT"

Normalerweise sollte nach einem

sudo ufw enable

die Firewall bei jedem Neustart auch aktiviert werden. Falls dies nicht der Fall ist, muss man ggfs. in der Datei /etc/ufw/ufw.conf ENABLED auf yes setzen:

# /etc/ufw/ufw.conf
#
# set to yes to start on boot
ENABLED=yes

Das Einzige, was mir an ufw noch fehlt, ist, dass keine Regeln für Interfaces unterstützt werden (siehe Feature Request), aber vielleicht kommt das ja noch..

Nach der Aktivierung hatte ich außerdem einige unschöne Einträge in meiner Logdatei, die einen Zugriff von meinem Router auf den Port registrierten:

Jan 19 05:36:14 abraxas kernel: [51524.306320] [UFW BLOCK INPUT]: IN=eth1 OUT= MAC=00:11:d8:59:8a:18:00:15:0c:d5:1f:02:08:00 SRC=192.168.178.1 DST=192.168.178.200 LEN=60 TOS=0x00 PREC=0x00 TTL=64 ID=29386 DF PROTO=TCP SPT=4981 DPT=14013 WINDOW=5840 RES=0x00 SYN URGP=0

Nachforschungen im Internet ergaben, dass es sich um die Kindersicherung der Fritz-Box handelt. Diese lässt sich über das Webinterface deaktivieren, allerdings hören die Portzugriffe erst nach einem Neustart auf.

Das Fazit zu ufw: Wirklich unkompliziert (”uncomplicated”) ist ufw nicht - man muss schon wissen, was man macht. Im Vergleich zu iptables ist es aber doch deutlich einfacher zu bedienen und kommt der Regelerstellung auf gängigen Heimnetzerwerkroutern (abgesehen vom command-line syntax) relativ nahe.

ich bin hier auf suse 10.3 x64 mit factory repository für kde unterwegs und mach das seit 4.0, da die so instabil war.
obwohl man das seit 4.1 nicht mehr sagen kann bin ich dabei geblieben und bin nach jedem update gespannt was so neues zu sehen ist. das hält die sache interessant.
4.2 macht vieles besser. die darstellung ist noch feiner, die performance besser, es gibt endlich anständige plasmoids, der druckdialog wurde verbessert, dolphin läuft langsam rund …. einziger wehmutstropfen war k3b (ist bei suse ajtuell nicht in 4.x dabei) – aber den aktuellen svn snapshot kann man ohne probleme mit der kde4.2 RC1 kompilieren und das geht dann sogar. ich finds cool.
was noch fehlt ist kdevelop…


Heute will ich kurz zeigen, wie man mit ein paar Schritten schöne Icons mit Inkscape gestalten kann.

Zuerst öffnet man Inkscape und zeichnet z.B. einen Kreis. Man kann natürlich auch eine andere Form nehmen. Als nächstes dupliziert man den Kreis (mit Strg+D) und verschiebt ihn an eine andere Stelle. Bei gedrückter Strg-Taste bleibt die horizontale bzw. vertikale Ausrichtung gleich.

2kreise1

Nun bearbeitet man den zweiten Kreis so mit dem Pfadwerkzeug (Umschalt+F6), dass ein Bogen entsteht. Der Bogen ist das Wichtige. Ansonsten muss der Pfad noch geschlossen werden, d.h. am Anfangspunkt wieder enden.

pfadkreis2

Dann markiert man den Kreis und den Pfad (Umschalt gedrückt halten) und wählt im Pfad-Menü Intersektion aus. Das “Reststück” wird nun weiß eingefärbt und wieder zurück über den ersten Kreis geschoben.

einweisen1

Der nächste Schritt besteht in der Anpassung der Deckkraft. Um einen “Glaseffekt” hinzu bekommen, empfiehlt sich eine Deckkraft zw. 20% und 30% - je nach Geschmack.

Auf dem Kreis braucht man jetzt nur noch ein Symbol oder Text einfügen. Dabei sollte man darauf achten, dass die Symbol bzw. Textebene zwischen den “Kreisen” liegt. Jetzt ist man eigentlich schon fertig, doch man kann dem Icon noch ein wenig Unschärfe am Rand hinzufügen. Dazu passt man die Unschärfe bei dem ersten Kreis an.

unscharfe2

So…das war es dann aber auch schon. Fertig ist das Icon!

logofertig1

Im Wiki-Artikel findet man noch viele weitere Links zu Tutorials, die einen Blick wert sind.

25. Januar 2009

Mailboxes

Nachdem wir ja letztes Mal die Grundkonfiguration des Mailservers abgeschlossen haben, gibt es heute zwei Extras, die nicht fehlen sollten. Und zwar Spam- und Virusfilter. Ersteres wird bei uns Spamassassin erledigen, die Viren überlassen wir dem freien Virenscanner ClamAV.

Zur Tat. Erst natürlich die benötigte Software installieren:
sudo apt-get install spamassassin spamc clamav clamav-daemon mutt cpio arj zoo nomarch lzop cabextract pax unrar lha

Wie ihr seht werden auch einige Packer/Entpacker mit installiert, damit ClamAV auch zum Beispiel zip-Archive prüfen kann.

Spamassassin einrichten

Dazu bearbeiten wir die Datei ‘/etc/spamassassin/local.cf’ wiefolgt:

rewrite_header Subject ***SPAM***
Wenn diese Zeile aktiv ist wird in jeder Spam-Mail ‘***SPAM***’ am Ende der Betreffzeile angehängt.
Diese Zeile bestimmt ab welchem Wert Mails als Spam markiert werden:
required_score 6.31
Ebenfalls de-kommentieren und den Wert entsprechend ändern. Falls zu viel Spam durchkommt sollte dieser Wert gegebenenfalls nach unten korrigiert werden, bzw. anders herum wenn zu viele reguläre Mails das Spam-Tag erhalten.
Diese beiden Zeilen sorgen dafür das der Bayessche Filter zum erkennen von Spam benutzt wird und dieser automatisch trainiert wird:
use_bayes 1
bayes_auto_learn 1

Um unseren Bayes-Filter nicht durch Header zu verwirren, die von anderen Mailservern (z.B. dem des Providers) oder unserem getmail angefügt wurden, werden diese durch die folgenden Zeilen ignoriert:
bayes_ignore_header X-Bogosity
bayes_ignore_header X-Spam-Flag
bayes_ignore_header X-Spam-Status
bayes_ignore_header X-getmail-filter-classifier

Danach muss Spamassassin noch aktiviert werden, dazu wird in der Datei ‘/etc/default/spamassassin’, die Zeile “ENABLED=0″ in “ENABLED=1″ umgeschrieben.

Dann kann Spamassassin gestartet werden:
sudo /etc/init.d/spamassassin start

Jetzt müssen wir nur noch getmail sagen, das es Spamassassin die Mails zur Prüfung geben soll. Dazu fügen wir folgenden Absatz in die ‘getmailrc’ des jeweiligen Benutzers ein:
[filter-spamassassin]
type = Filter_external
path = /usr/bin/spamc
arguments = (”–max-size=100000″, )

Beim nächsten Aufruf von getmail sollte dieses die empfangenen Mails durch Spamassassin checken lassen. Prüfen kann man das wiefolgt:
Mail an die entsprechende Mail-Adresse schicken, dann getmail als Benutzer (nicht als root) aufrufen:
getmail
Dann den Posteingang checken:
mutt -f /home/benutzer/mail
Dort sollte dann eine E-Mail liegen, die mit Enter aufgerufen wird. Im oberen Bereich sollten dann Zeilen ähnlich dieser gefunden werden:
X-Spam-Checker-Version: SpamAssassin 3.2.4 (2008-01-01) on server
Dann wurde alles richtig gemacht, ansonsten noch einmal alle Einstellungen checken, bzw das getmail-Log unter ‘/home/benutzer/.getmail/log’.

ClamAV einrichten

Da wir ClamAV oben schon mit installiert haben und er von sich aus schon eingerichtet ist, muss nur der folgende Abschnitt in die getmailrc des jeweiligen Benutzers eingefügt werden:
[filter-clamav]
type = Filter_classifier
path = /usr/bin/clamdscan
arguments = (”–stdout”, “–no-summary”, “-”)
exitcodes_drop = (1, )

Damit werden Mails die Viren enthalten automatisch verworfen. Falls das nicht gewünscht ist und die Mails trotzdem zugestellt werden sollen (was ich nicht unbedingt empfehlen würde), muss die letzte Zeile so lauten:
exitcodes_keep = (0,1)

Damit wäre auch diese Einrichtung geschehen und es kann Spam- und Virenfrei ge-E-mailt werden.

Um die Mails in eurem Mail-Programm automatisch in den Spam-Ordner werfen zu lassen, müsst ihr dort einstellen das die Header von Spamassassin benutzt werden sollen. Wie das geht findet ihr in der Dokumentation eures jeweiligen Mailprogrammes.

Natürlich gilt auch hier wieder: Für etwaige Schäden, oder ähnliches was durch Benutzung dieses Tutorials geschehen sollte, übernehme ich keine Haftung. Das Setup habe ich selbst in Betrieb und es funktioniert. Schreibfehler sind aber natürlich nicht ausgeschlossen. Falls euch etwas auffällt bitte ich um eine kurze Nachricht, damit ich gegebenenfalls Korrekturen machen kann.

Tags: | | | | | | |

Gerade habe ich was merkwürdiges bei RAC entdeckt:
http://www.rentacoder.com/RentACoder/misc/BidRequests/ShowBidRequest.asp?lngBidRequestId=1091727
und
http://www.rentacoder.com/RentACoder/misc/BidRequests/ShowBidRequest.asp?lngBidRequestId=1091725.

Da bietet jemand 12$ für jemanden der ihm einen neuen Account im http://ubuntuforums.org/ anlegt und dort 40 Posts verfasst. Das gleiche nochmal für http://fedoraforum.org/forum/.

Als Begründung gibt er an:

This is a test project. I prefer to have long term relationship with coders. If the coder is successfull, he can have subsequent projects with modified specs.

Ich frage mich die ganze Zeit schon was das soll? Will er sehen, dass ein Linux-User in einem Forum posten kann ohne gebanned zu werden und ihm dann erst richtige Folgeaufträge geben?

Oder ist seine wahre Absicht etwas Reputation in diesen Foren so zu erkaufen? Wobei 40 Posts auch nicht gerade viel sind..

Snes9x, Gameboyemulatoren und die Programme für Sega waren für mich ein alter Hut. Statt seine alten Konsolen herauszukramen, ist es viel angenehmer sich die Rom’s zu besorgen und entspannt am PC zu zocken.

Eben habe ich einen Emulator für N64 gefunden, Mupen64. Das Teil gibts vorkompiliert auch für 64bit Systeme. Bis jetzt habe ich es erfolgreich mit Zelda, Majoras Mask ausprobiert.Eine recht gute Auswahl an Rom’s gibts hier.

Wie immer dran denken: nichts illegales treiben. Nun fehlt mir nur noch ein guter Ps2 Emulator für Final Fantasy und alles wird gut :)

kde4.de 25. Januar 2009 12:05

Von: Mark

Ich werde mir voraussichtlich innerhalb des nächsten Monats ein Notebook holen und im Zuge dessen auf Kubuntu mit KDE 4.2 umsteigen.
Mit 4.1, das ich auf zum testen drauf habe, bin ich schon recht zufrieden. Jedenfalls liegt mir das eine Spur besser als Gnome.

Dolphin ist der Hammer. Die eingebauten Bild- und Dokumentenbetracher ebenfalls. Arbeiten kann man mit KDE 4 schon super. Es macht richtig Spass…

Ich habe die letzten beiden Wochen wieder mit dem Laptop arbeiten müssen und habe schon lange kein Xinerama, Twinview und Co mit dem Laptop gemacht.

Ich habe nie  recht verstanden, dass die Hardware Dienste keinen zweiten Monitor automatisch erkennen und mir irgendwas anbieten. Auf der Suche das ganze on the fly zu lösen habe ich den Befehl xrandr gefunden. Wenn man das Kommando einfach ohne Parameter auf der Konsole eingibt, erhält man einige Informationen über die vorhandenen Anschlüsse und die angeschlossenen Displays. Die notwendige Auflösung für den externen Monitor war bei mir aber nicht gelistet.

Ich habe mir dann ein kleines Shellscript erstellt, mi dem ich den zweiten Monitor bequem einschalten kann.

hier der Inhalt des Scriptes:

#!/bin/sh
xrandr --newmode 1280x1024 135 1280 1312 1416 1664 1024 1027 1030 1064
xrandr --addmode VGA 1280x1024
xrandr --output LVDS --mode 1280x800 --output VGA --mode 1280x1024 --right-of LVDS

Die erste Zeile fügt eine neue Auflösung hinzu. Die zweite Zeile weißt die Auflösung dem Monitor am VGA Ausgang zu. und die dritte Zeile definiert die komplette grafische Oberfläche also auf dem Laptop Display 1280×800 und am VGA Ausgang 1280×1024 und der steht dann noch rechts vom Laptop. Das Script habe ich in Ordner /home/MEINUSER/bin abgelegt und ausführbar gemacht.

Ich hoffe das hilft euch :-)

Weitere Artikel:

“Wer schaut heute noch realtime Fernsehen", ein Zitat des Stackenblochen Kollektivs. Ebenso ergeht es mir mit Radio. Ich habe meist nicht Zeit, wenn die interessanten Sendungen ausgestrahlt werden, oder es ist einfach viel zu spät. Da ich sowieso einen kleinen Server laufen habe, der nur eine Konsole hat, brauchte ich ein Konsolenprogramm. Da manche Radiosender immer noch wma senden konnte ich leider nicht auf den Streamripper zurückgreifen. Aber schnell hatte ich dann ein auf wma spezialisiertes Programm gefunden: mimms. Jetzt nur noch ein kleines Script schreiben und entsprechende Zeilen in der crontab anlegen und selbigen daemon neu starten. Hier das Ergebnis, wie es bei mir funktioniert:

Lies mehr! »

24. Januar 2009

    Ich (muss) mich leider recht oft in einem Netzwerk aufhalten, dass außer Port 80 (also http) nur noch Port 443 (https) ins Internet lässt. Alles andere ist durch eine Firewall blockiert. Instant-Messaging über Jabber und Google Talk ist somit nicht mehr möglich. Es bleibt nur noch der “Webclient” von Google Mail.

    Doch man kann Pidgin und Gajim dazu bringen ihre Verbindung über https zu Google Talk aufzubauen, so kann man auch hinter einer SEHR restriktiven Firewall mit seinem bevorzugtem IM-Programm chatten. Das Konto von Google Talk muss in Pidgin dafür wie folgt konfiguriert werden.

    • Einfach
      • Benutzer: manfred.mustermann
      • Domain: gmail.com
    • Erweitert
      • [X] Erzwinge altes SSL (Port 5223)
      • Verbindungsport: 443
      • Verbindungsserver: talk.google.com
    Google Talk mit Pidgin über https

    Google Talk mit Pidgin über https

    Liegt einem der reine Jabber Client Gajim eher, so muss man in der Kontenverwaltung von Gajim im Prinzip das selbe einstellen.

    • Konto
      • Jabber ID: manfred.mustermann@gmail.com
    • Verbindung
      • Proxy eintragen
      • [X] SSL verwenden (veraltet)
      • [X] Verwende benutzerdefinierten Hostnamen und Port
        • Hostname: talk.google.com
        • Port: 443
    Google Talk über https mit Gajim

    Google Talk über https mit Gajim

    Danach sollte man sich sofort einloggen und chatten können. Das Übertragen von Dateien sollte eigentlich auch möglich sein, habe ich jetzt aber auch nicht getestet.

    Durch Zufall bin ich die Tage auf eine Seite gestoßen, auf der hübsche Themes für den GNOME-Desktop zu finden sind. Themen für GTK, Metacity, GDM und Emerald stehen zur Verfügung. Die Seite ist allerdings in französischer Sprache, was einen kleinen Nachteil darstellt, wenn man der Sprache nicht mächtig ist.

    gnome tropical

    GNOME Tropical ist eines der Themes, die im Repository zur Verfügung stehen. Um die Themes zu installieren fügt man die entsprechende Paketquelle in der /etc/apt/sources.list hinzu. Die Paketquellen stehen für die Ubuntu-Versionen 8.04 und 8.10 zur Verfügung.  Beachtet bitte, das Fremdpakete das System gefährden können.

    Paketquelle für Ubuntu 8.10 “Intrepid Ibex”:
    Siehe neuen Post hier!

    Paketquelle für Ubuntu 8.04 LTS “Hardy Heron”:
    Siehe neuen Post hier!

    Um unter Intrepid alle Themes zu installieren reicht es das Metapaket zgegblog-themes zu installieren. Nutzt man Hardy heißt das Paket zgegblog-themes-old. Hier kommt eine beachtliche Menge an Daten zusammen. Möchte man nur einzelne Themes installieren sind die Pakete auf der jeweiligen Detailseite zu finden. Hier am Beispiel des Infinity-Themes:
    - wallpaper: sudo aptitude install wallpaper-infinity-theme
    - gtk: sudo aptitude install gtk-infinity-theme
    - metacity: sudo aptitude install metacity-infinity-theme
    - icones: sudo aptitude install icon-infinity-theme
    - Gdm: sudo aptitude install gdm-infinity-theme
    - emerald: sudo aptitude install emerld-infinity-theme

    Alle verfügbaren Themes kann man sich im zgegblog anschauen, eine Übersicht über alle Pakete für Intrepid gibt es hier, die Hardy-Pakete werden hier aufgelistet.

    kde4.de 24. Januar 2009 11:58

    Von: Hanna_

    ich nutze archlinux und kann so die aktuellen testing-pakete nutzen. die sind im moment sehr aktuell (zum teil 4.1.96, manche aber schon 4.2.0-1) -das ist halt das schöne an rolling-release-distris, das man immer die aktuellsten hat :)

    Viele kennen sicher das Problem, dass Firefox mit dem Gnash-PlugIn bei manchen YouTube-Videos abstürzt. Dieses Problem ist zwar schon lange bekannt doch scheinbar noch immer aktuell. Nachdem ich nur selten YouTube-Videos ansehe kam mir dieses Problem bisher noch nicht unter doch irgendwann erwischt es halt jeden. Nachdem ich das Gnash-PlugIn runtergeschmissen hatte und mir das flashplugin-nonfree installiert hatte(laut: http://board.raidrush.ws/archive/t-393245.html) war bei mir wieder alles okay. Falls noch jemand hier ein ähnliches Problem oder einen anderen Lösungsansatz hat kann er sich per Kommentar melden.