ubuntuusers.de

25. November 2008

kde4.de 25. November 2008 17:09

Fedora 10 freigegeben

Die Linux Distribution Fedora ist in Version 10 erschienen. Mit an Board ist KDE in Version 4.1.2. Dank Plymouth und Kernel-Based Mode-Settings soll der Bootvorgang besser und schöner ablaufen.

Als Kernelversion wird auf  2.6.27.5 gesetzt. Der Networkmanager wurde um die Funktion AdHoc Network ergänzt. Mit dieser Funktion kann man eine Punkt zu Punkt Verbindung zwischen zwei WLAN Geräten herstellen ohne einen Accesspoint zu verwenden.

Weitere Artikel:

Heute morgen habe ich es mal wieder auf grazile Art und Weise geschafft, den NaturalNet-Server abzuschießen. Und zwar ging es um den Versuch, das I/O-System ein wenig zu optimieren, da unter Anderem keien vernünftigen DMA-Modi auf die Festplatten gesetzt waren und so vor allem die Datenbanken sehr lahm waren.

Nun steht in sämtlichen Dokumentationen zu hdparm ja nicht umsonst, dass man neue Einstellungen doch bitte nicht auf rw-gemountete Geräte schreiben soll, weil es sosnt zu erheblichen Dateisystemschäden kommen könnte. Doch was wäre das Leben ohne Risiko …

Das Resultat war jedenfalls, dass die Systemplatte wegen eines schon länger bekannten Hardwareschadens, den ich aus finanziellen Gründen bisher nicht beheben konnte, sich bem Setzen des DMA-Modus verabschiedete und der Kernel über den Reset locker weiter schrieb. Und plötzlich stand ich da mit einem Server, der mich erst aus der su-Umgebun schmiss und dann auch noch aus der SSH-Session, weil das root-Dateisystem plötzlich leer war und das anscheinend systembedingt ungünstig ist.

Also ab nach Wermelskirchen und die Sache ansehen – das System haut mich nach dem Booten des kernels in eine Shell im initramfs raus, weil das Rootdateisystem nicht gemountet werden kann und Init damit nicht gestartet werden kann. Also schnell mal Damn Small Linux brennen und sämtliche Dateisysteme prüfen. e2fsck meckert zwar erstmal, dass es zu alt sei und die Dateisysteme nicht prüfen könne, ist aber doch noch motiviert genug mir Tausende kaputte Inodes um die Ohren zu schleudern, die ich auch gleich mal alle bereinigen lasse, was bleibt mir auch Anderes übrig. Unnötig zu sagen, dass dabei natürlich ein paar Dateien draufgehen, aber hey, wozu haben wir denn ein ordentliches System :) .

Und nach dem Reboot zeigte sich dann auch gleich, wo der Haken hängt: Init-Scripte beschwerten sich über fehlende Kommandos wie head, tr und Ähnliches und BIND vermisste seine Binary auch irgendwie. Zm Glück konnte ich das mit einem aptitude reinstall coreutils bind9 reparieren, und nun ist alles wieder in Butter.

Was lernen wir daraus?

  • manche Warnungen hat man mit Verstand verfasst, nicht nur zur Benutzerabschreckung
  • Mache niemals kritische Sachen wenn du keien Lust hast kilometerweit zu fahren
  • Es ist gut, alle wichtigen Daten auf separate Partitionen auszulagern und nicht alles auf eine Root-Partition zu packen. Denn so sind mein Mailspool, die Datenbank und noch einiges Anderes unbeschädigt geblieben und wären es auch, hätte sich das Root-Dateisystem gar nicht mehr retten lassen

Die Entwickler der Shorewall haben da übrigens einen netten Kommentar in ihre Konfigurationsdatei gepackt:

#
# FOR ADMINS THAT REPEATEDLY SHOOT THEMSELVES IN THE FOOT
#
# Normally, when a "shorewall stop" command is issued or an error occurs during
# the execution of another shorewall command, Shorewall puts the firewall into
# a state where only traffic to/from the hosts listed in
# /etc/shorewall/routestopped is accepted.
#
# When performing remote administration on a Shorewall firewall, it is
# therefore recommended that the IP address of the computer being used for
# administration be added to the firewall's /etc/shorewall/routestopped file.
#
# Some administrators have a hard time remembering to do this with the result
# that they get to drive across town in the middle of the night to restart
# a remote firewall (or worse, they have to get someone out of bed to drive
# across town to restart a very remote firewall).
#
# For those administrators, we offer ADMINISABSENTMINDED=Yes. With this
# setting, when the firewall enters the 'stopped' state:

Genau so ist es nämlich ;)

Der beliebte und für Linux, Mac und Windows erhältliche DVD2MPEG-4 Konverter Handbrake gibt es in der neuesten Version auch mit einer GUI für Linux. Bisher war dort nur die Bedienung auf der Kommandozeile möglich.

Ausserdem neu in Version 0.9.3:

  • nahezu alle Arten von Videoquellen werden akzeptiert, man ist nicht mehr nur auf DVDs beschränkt
  • Verbesserung der Qualität von x264 kodierten Videos
  • Audio-Video-Synchronisation
  • Unterstützung für den Ogg Theora Codec

Handbrake bietet viele Presets zur Aufbereitung von Videodaten für das Abspielen auf vielen verschiedenen Geräten, darunter:

  • Apple iPod/iPhone, AppleTV
  • Sony PSP/PS3
  • Xbox360

Zum Download zur Verfügung stehen 32- und 64-bit Versionen für Ubuntu Intrepid, sowie ein Source-Package für das Selbstkompilieren auf anderen Linux-Distributionen.

Achtung: Unter Intrepid musste ich das Paket libgtkhtml3.14-19 installieren, sonst startete Handbrake nicht!

Tags: | | | | | | |

Schon vor langem habe ich mir vorgenommen die LPIC mal zu absolvieren. Und das werde ich auch tun. Die LPIC war auch einer der Gründe, weshalb ich auf Linux gewechselt habe.

Nun wollte ich mich also ein bisschen im Internet schlau machen, was den genau alles gefordert wird etc etc. Und dabei bin ich auf eine Seite vom Linux-Magazin gestossen, welche eine Serie von Artikel über die LPIC veröffentlicht hat.

Insgesamt sind es 24 Artikel, 19 davon sind bereits frei verfügbar, die andern werden es mit der Zeit auch noch werden :)
Für alle die nicht wissen was LPIC ist (obwohl ich eigentlich denke, dass jeder schon davon gehört oder gelesen hat):

The Linux Professional Institute Certification (LPIC) is a certification in the field of Linux. Each LPIC level requires successful completion of two exams for certification.

Bereitgestellt wird diese Zertifizierung vom LPI. Das Linux Professional Institute (LPI) gilt als weltweit führendes Zertifizierungsprogramm der Linux-Gemeinschaft. Das LPI entwickelt professionelle Zertifizierungen für GNU/Linux, unabhängig von Software- oder Schulungsanbietern (also weitgehend distributionsunabhängig). Bisher wird ein Zertifizierungsprogramm, Linux Professional Institute Certification (kurz LPIC), angeboten, das sich an Systemadministratoren richtet; über weitere Zertifizierungsprogramme, etwa für Anwender oder Entwickler, wird nachgedacht.

Die 24-Teilige Serie von Linux-Magazin findet man hier.

Wie schon gesagt werde ich bald (nächstes Semester) die LPIC beginnen und natürlich hier meine Erfahrungen und Eindrücke darüber festhalten.

    Das Rätsel der Woche: Was ist das?

    Rätsel der Woche...

    Rätsel der Woche...

    Ein Windows? Ja… VirtualBox? Ja… Ubuntu und Kubuntu 8.10 als virtuelle Maschinen in der VirtualBox? Ja… OK, was ist daran nun besonders? Es ist eine portable Version von VirtualBox!

    Eine Zeit lang hatte ich versucht portable Versionen von VMware Player oder Server aufzutreiben. Aber in der Richtung scheint es nichts zu geben. Warum also nicht VirtualBox? Portable-VirtualBox ist aus diesem Thread auf german-nlite.org entstanden.

    Die aktuelle Version kann man sich von hier herunterladen. Je nach Architektur holt man sich Portable-VirtualBox_v2.0.6-Starter_v2.3.0-Win32.7z oder eine der 64-bit Varianten, entpackt sie und startet die Portable-VirtualBox.exe aus dem Archiv.

    Die Bedienung ist identisch zu einem “normalen” VirtualBox, allerdings wird rein gar nichts auf dem Rechner installiert, und die virtuellen Maschinen werden im selben Verzeichnis wie das Programm abgelegt. So eignet sich Portable-VirtualBox prima um “das eigene” Linux immer dabei zu haben…

    Das Fenster des Firefox maximiere ich nie, somit ich nebenher noch etwas Platz auf dem Gnome-Desktop frei habe. Ich könnte auch einfach einen andern Desktop nutzen, aber ich habe mich nun so daran gewohnt, dass ich dabei bleibe und Firefox in einem Teilfenster nutze. Ab und an passiert es, dass (s)ich dieses Fenster verschieb(t)e. Wenn ich es dann wieder an “den richtigen Ort” stelle und den Browser schliesse, öffnet er sich beim nächsten Mal ums Verrecken am falschen Platz. Das ist eigentlich nicht weiter schlimm, aber massiv lästig.

    Unter Gnome gibt es ein Programm namens Metacity, welches für die Verwaltung der Fenster-Eigenschaften zuständig ist. Dies könnte ich beeinflussen, beispielsweise mit der Applikation Devilspie. Ist aber kompliziert und, wenn man die Anwendung das erste Mal nutzt, auch aufwändig. Ausserdem möchte ich ja bloss für den Firefox eine Lösung finden und nicht für alle möglichen und unmöglichen Fenster.

    In diesem Fall eignet sich eine sehr einfache Lösung. Der Firefox legt ein paar Eigenschaften im Home-Ordner des jeweiligen Benutzers ab, die man bearbeiten kann. Dazu sollte man aber zuerst den Firefox beenden, weil der Kerl nämlich die Datei überschreibt, sobald man den Browser schliesst. Im Verzeichnis .mozilla/firefox/Profil-Verzeichnis.default/ liegt die Datei localstore.rdf. Wer keine Lust hat, die Datei zu bearbeiten, kann sie entweder löschen oder mindestens die Sektion #main-window entfernen und nachher den Firefox starten, die Position festlegen und das wäre es dann schon. Aber damit gehen auch die Einstellungen der Menüleiste und andere Parameter verloren, deswegen würde ich sie bearbeiten. Im ersten Abschnitt (#main-window) befinden sich die richtigen Werte:

    sizemode="normal"
    width="1165"
    height="1000"
    screenX="3"
    screenY="23"

    Der Sizemodus legt hier ein Teilfenster fest, könnte auch mit dem Wert maximized maximiert sein. Mit width legt man die Breite des Browser fest, mit height die Höhe (in Pixel). Dann folgt die X-Y-Achse, welche die Bildschirmkoordinaten beschreiben. Und das war es dann schon; Firefox starten und fertig.

    Und wenn dann widererwarten der Firefox noch immer Zicken macht, greife ich zu härteren Mitteln:

    sudo chattr +i localstore.rdf

    Damit entziehe ich die Änderungsrechte an der Datei. Als sudo kann man natürlich trotzdem Änderungen anbringen. Rückgängig macht man den Befehl, in dem ein Minus (-) statt ein Plus (+) vor dem Attribut i verwendet wird.

    Ähnliche Artikel

    24. November 2008

    Nach meinem Upgrade meiner Server-Installation von Hardy Heron auf Intrepid Ibex unter Virtualbox auf einem Windows-Host, bekam ich beim Hochfahren auf einmal die Fehlermeldung “Cannot access the Hardware Clock via any known method. Use the –debug option to see the details of our search for an access method.” Der Aufruf von

    hwclock --debug

    brachte dann folgende Ausgabe:

    hwclock from util-linux-ng 2.14
    hwclock: Open of /dev/rtc failed, errno=2: No such file or directory.
    No usable clock interface found.
    Cannot access the Hardware Clock via any known method.

    Beim Nachforschen zeigte sich, dass kein einziges /dev/rtc* Device vorhanden war, aber leider konnte ich auch kein passendes Kernelmodul finden, durch das das entsprechende Device verfügbar gewesen wäre. Wahrscheinlich ist das ein Bug von Intrepid. Als temporäre Maßnahme schafft es Abhilfe, in /etc/init.d/hwclockfirst.sh und /etc/init.d/hwlock.sh den Parameter HWCLOCKPARS auf –directisa zu setzen:

    # Set this to any options you might need to give to hwclock, such
    # as machine hardware clock type for Alphas.
    HWCLOCKPARS="--directisa"

    Eine Anleitung für den DVD-Support unter Hardy Heron hatte ich ja schon gepostet, nun ist Intrepid Ibex dran. Auch diesmal hilft das Medibuntu Repository weiter. Mit folgenden Befehlen aktivieren wir es als Software-Quelle (Anleitung von der offiziellen Medibuntu Wiki-Seite):

    sudo wget http://www.medibuntu.org/sources.list.d/intrepid.list --output-document=/etc/apt/sources.list.d/medibuntu.list
    sudo apt-get update && sudo apt-get install medibuntu-keyring && sudo apt-get update

    Für die i386-Architektur führt man nun folgenden Befehl aus:

    sudo apt-get install w32codecs libdvdcss2

    Falls meinen einen 64-Bit Prozessor sein eigen nennt, führt man

    sudo apt-get install w64codecs libdvdcss2

    aus.

    Nein, ich heirate nicht. Aber ich habe Squid 3 erfolgreich mit einem Active Directory verkuppelt.

    Vorbereitungen

    Unter Windows muss folgendes erledigt sein:

    • Proxy Server muss im Microsoft DNS Dienst bekannt sein
    • Proxy Server muss als "Trusted Host" im AD angelegt sein

    Der Proxy Server sollte entweder eine "richtige" statische IP, oder auch eine Reservierung via DHCP haben. Auch muss die Uhrzeit mit NTP Synchron gehalten werden, den Kerberos ist sehr pingelig was das angeht!

    Auf der Linux Seite benötigt man natürlich den root-Account, oder ähnliche Rechte (sudo usw...). Alle nachfolgenden Befehl müssen als root eingegeben werden!

    Proxy Server

    Auf dem Proxy Server selbst braucht man folgende Pakete:

    • krb5-user
    • squid3
    • winbind

    Kerberos Setup

    Die Kerberos Konfigurationsdatei (/etc/krb5.conf) sollte so aussehen:

    [libdefaults]
     default_realm = DOMAIN
    [realms]
     DOMAIN = {
      kdc = 192.168.1.1
      admin_server = 192.168.1.1
     }
    [domain_realm]
    .domain = DOMAIN
    [appdefaults]
    pam = {
     ticket_lifetime = 1d
     renew_lifetime = 1d
     forwardable = true
     proxiable = false
     retain_after_close = false
     minimum_uid = 1
    }

    In meinem Fall war DOMAIN der Domänenname und 192.168.1.1 dessen IP-Adresse. Es ist natürlich wichtig das man dafür eine Funktionierende Namensauflösung hat, Optimal ist es wenn man dafür den DNS Server vom AD nimmt. Da sollte ja ohnehin alles drin sein was man braucht.

    Natürlich ist für das Kerberos Setup ein Test nicht schlecht:

    kinit user@DOMAIN

    Man wird nun nach dem Passwort für den AD-User user gefragt. Wenn alles geklappt hat bekommt man von klist folgende Ausgabe:

    Ticket cache: FILE:/tmp/krb5cc_0
    Default principal: user@DOMAIN
    
    Valid starting    Expires           Service principal
    11/26/08 20:57:19 11/27/08 06:57:20 krbtgt/DOMAIN@DOMAIN
            renew until 11/27/08 20:57:19
    
    Kerberos 4 ticket cache: /tmp/tkt0
    klist: You have no tickets cached

    So sieht man das man erfolgreich ein TGT (eine Art "Chef-Ticket") bekommen hat, mit diesem könnte man dann Ticket für einzelne Dienste anfordern, was uns aber jetzt nicht weiter interessiert.

    Samba / Winbindd Setup

    Nachdem jetzt Kerberos läuft, können wir an den nächsten Schritt gehen: Samba (genauer Winbind) will jetzt Domänenmitglied werden, und das geht mit so einer /etc/samba/smb.conf:

    [global]
    workgroup = DOMAIN
    realm = DOMAIN
    password server = HOSTNAME.DOMAIN
    security = ADS
    winbind refresh tickets = yes
    idmap uid = 10000-20000
    idmap gid = 10000-20000
    winbind enum users = yes
    winbind enum groups = yes
    winbind cache time = 10
    winbind use default domain = yes

    password server muss der DNS Name vom AD Server sein. Der Rest dürfte selbsterklärend sein. Nun kann man der Domäne beitreten:

    net ads join -U user@DOMAIN

    Dannach kann man den winbindd starten, was wie gewohnt über

    /etc/init.d/winbbind start

    geht. Ob dies funktioniert hat kann man mit wbinfo -t prüfen:

    checking the trust secret via RPC calls succeeded

    Dann kann man auch noch die Gruppen im AD anzeigen lassen, dies geht mit wbinfo -g:

    gruppe1
    gruppe2
    gruppe3
    usw...

    Damit Squid (genauer ntlm_auth) auch was mit Winbind Anfangen kann muss das Verzeichnis /var/run/samba/winbindd_privileged der Gruppe windbind_priv gehören, und von dieser Lesbar sein.

    Squid Setup

    Jetzt kommt der letzte Schritt, und zwar die Anpassung der /etc/squid3/squid.conf, hier gehört folgendes noch mit rein:

    auth_param ntlm program /usr/bin/ntlm_auth --require-membership-of=DOMAIN\\GRUPPE --helper-protocol=squid-2.5-ntlmssp
    auth_param ntlm children 10
    auth_param basic program /usr/bin/ntlm_auth --require-membership-of=DOMAIN\\GRUPPE --helper-protocol=squid-2.5-basic
    auth_param basic children 5
    auth_param basic realm Domain Proxy Server
    auth_param basic credentialsttl 2 hours
    auth_param basic casesensitive off
    authenticate_cache_garbage_interval 10 seconds
    authenticate_ttl 0 seconds
    acl AuthorizedUsers proxy_auth REQUIRED
    http_access allow all AuthorizedUsers

    Von dem Parameter cache_effective_user bzw. cache_effective_group sollte man die Finger lassen (die Zeile sollte also ein Kommentarzeichen am Anfang haben), da sonst ntlm_auth nicht mit den nötigen Rechten läuft.

    Es ist wichtig das der User proxy auch in der Gruppe winbindd_priv ist:

    sudo adduser proxy winbindd_priv

    Mit diesen Einträgen erreicht man das SSO bevorzugt wird, jedoch auch noch der alte Benutzername/Passwort Dialog möglich ist. Dies ist vor allem dann sinnvoll wenn man nicht nur NTLM fähige Clients hat. Ich habe bei der Gelegenheit auch gleich eingestellt das nur Mitglieder der AD Gruppe GRUPPE das Recht haben ins Internet zu gehen, was gerade in großen Firmen gewünscht wird.

    Jetzt kann man mit /etc/init.d/squid3 start den Squid Proxy starten, und kann einen Test unter Windows machen (z.b. mit dem Internet Explorer). Das der Proxy Server auch schön auf den Clients eingetragen wird, davon gehe ich jetzt einfach mal aus.

    Nein, ich heirate nicht. Aber ich habe Squid 3 erfolgreich mit einem Active Directory verkuppelt.

    Vorbereitungen

    Unter Windows muss folgendes erledigt sein:

    • Proxy Server muss im Microsoft DNS Dienst bekannt sein
    • Proxy Server muss als "Trusted Host" im AD angelegt sein

    Der Proxy Server sollte entweder eine "richtige" statische IP, oder auch eine Reservierung via DHCP haben. Auch muss die Uhrzeit mit NTP Synchron gehalten werden, den Kerberos ist sehr pingelig was das angeht!

    Auf der Linux Seite benötigt man natürlich den root-Account, oder ähnliche Rechte (sudo usw...). Alle nachfolgenden Befehl müssen als root eingegeben werden!

    Proxy Server

    Auf dem Proxy Server selbst braucht man folgende Pakete:

    • krb5-user
    • squid3
    • winbind

    Kerberos Setup

    Die Kerberos Konfigurationsdatei (/etc/krb5.conf) sollte so aussehen:

    [libdefaults]
     default_realm = DOMAIN
    [realms]
     DOMAIN = {
      kdc = 192.168.1.1
      admin_server = 192.168.1.1
     }
    [domain_realm]
    .domain = DOMAIN
    [appdefaults]
    pam = {
     ticket_lifetime = 1d
     renew_lifetime = 1d
     forwardable = true
     proxiable = false
     retain_after_close = false
     minimum_uid = 1
    }

    In meinem Fall war DOMAIN der Domänenname und 192.168.1.1 dessen IP-Adresse. Es ist natürlich wichtig das man dafür eine Funktionierende Namensauflösung hat, Optimal ist es wenn man dafür den DNS Server vom AD nimmt. Da sollte ja ohnehin alles drin sein was man braucht.

    Natürlich ist für das Kerberos Setup ein Test nicht schlecht:

    kinit user@DOMAIN
    

    Man wird nun nach dem Passwort für den AD-User user gefragt. Wenn alles geklappt hat bekommt man von klist folgende Ausgabe:

    Ticket cache: FILE:/tmp/krb5cc_0
    Default principal: user@DOMAIN
    
    Valid starting    Expires           Service principal
    11/26/08 20:57:19 11/27/08 06:57:20 krbtgt/DOMAIN@DOMAIN
            renew until 11/27/08 20:57:19
    
    Kerberos 4 ticket cache: /tmp/tkt0
    klist: You have no tickets cached
    

    So sieht man das man erfolgreich ein TGT (eine Art "Chef-Ticket") bekommen hat, mit diesem könnte man dann Ticket für einzelne Dienste anfordern, was uns aber jetzt nicht weiter interessiert.

    Samba / Winbindd Setup

    Nachdem jetzt Kerberos läuft, können wir an den nächsten Schritt gehen: Samba (genauer Winbind) will jetzt Domänenmitglied werden, und das geht mit so einer /etc/samba/smb.conf:

    [global]
    workgroup = DOMAIN
    realm = DOMAIN
    password server = HOSTNAME.DOMAIN
    security = ADS
    winbind refresh tickets = yes
    idmap uid = 10000-20000
    idmap gid = 10000-20000
    winbind enum users = yes
    winbind enum groups = yes
    winbind cache time = 10
    winbind use default domain = yes
    

    password server muss der DNS Name vom AD Server sein. Der Rest dürfte selbsterklärend sein. Nun kann man der Domäne beitreten:

    net ads join -U user@DOMAIN
    

    Dannach kann man den winbindd starten, was wie gewohnt über

    /etc/init.d/winbbind start
    

    geht. Ob dies funktioniert hat kann man mit wbinfo -t prüfen:

    checking the trust secret via RPC calls succeeded
    

    Dann kann man auch noch die Gruppen im AD anzeigen lassen, dies geht mit wbinfo -g:

    gruppe1
    gruppe2
    gruppe3
    usw...
    

    Damit Squid (genauer ntlm_auth) auch was mit Winbind Anfangen kann muss das Verzeichnis /var/run/samba/winbindd_privileged der Gruppe windbind_priv gehören, und von dieser Lesbar sein.

    Squid Setup

    Jetzt kommt der letzte Schritt, und zwar die Anpassung der /etc/squid3/squid.conf, hier gehört folgendes noch mit rein:

    auth_param ntlm program /usr/bin/ntlm_auth --require-membership-of=DOMAIN\\GRUPPE --helper-protocol=squid-2.5-ntlmssp
    auth_param ntlm children 10
    auth_param basic program /usr/bin/ntlm_auth --require-membership-of=DOMAIN\\GRUPPE --helper-protocol=squid-2.5-basic
    auth_param basic children 5
    auth_param basic realm Domain Proxy Server
    auth_param basic credentialsttl 2 hours
    auth_param basic casesensitive off
    authenticate_cache_garbage_interval 10 seconds
    authenticate_ttl 0 seconds
    acl AuthorizedUsers proxy_auth REQUIRED
    http_access allow all AuthorizedUsers
    

    Von dem Parameter cache_effective_user bzw. cache_effective_group sollte man die Finger lassen (die Zeile sollte also ein Kommentarzeichen am Anfang haben), da sonst ntlm_auth nicht mit den nötigen Rechten läuft.

    Es ist wichtig das der User proxy auch in der Gruppe winbind_priv ist:

    sudo adduser proxy winbind_priv
    

    Mit diesen Einträgen erreicht man das SSO bevorzugt wird, jedoch auch noch der alte Benutzername/Passwort Dialog möglich ist. Dies ist vor allem dann sinnvoll wenn man nicht nur NTLM fähige Clients hat. Ich habe bei der Gelegenheit auch gleich eingestellt das nur Mitglieder der AD Gruppe GRUPPE das Recht haben ins Internet zu gehen, was gerade in großen Firmen gewünscht wird.

    Jetzt kann man mit /etc/init.d/squid3 start den Squid Proxy starten, und kann einen Test unter Windows machen (z.b. mit dem Internet Explorer). Das der Proxy Server auch schön auf den Clients eingetragen wird, davon gehe ich jetzt einfach mal aus.

    Früher habe ich KDE genutzt und Quanta+ als Webentwicklungsumgebung zu lieben gelernt. Nun benutze ich Ubuntu mit Gnome. Wie ich schon in einigen Artikeln erwähnt habe, bin ich alleine aus optischen Gründen (gut, QT4 Anwendungen seien hier mal ausgenommen danke QGTKStyle) kein großer Freund von QT-Anwendungen unter Gnome. Daher schied Quanta+ erstmal aus.

    Also mal geschaut was sich so an GTK Webeditoren auf dem Markt tummelt. Da wäre ganz zu Anfang der gute alte Texteditor gedit, aus dem Gnome Projekt. Mit ein paar Plugins, und richtigen Einstellungen lässt er sich schon ganz gut als Webentwicklungs IDE umfunktionieren. ( Customizing gedit as a Web Developer’s IDE ). Allerdings ist dies auch nicht der Weisheits letzter Schluss, da solche Sachen wie Code-Completion und Debugging fehlen, bzw. nur sehr rudimentär oder umständlich umgesetzt sind.

    Gnome selbst bringt natürlich auch einen Webeditor mit, er nennt sich Bluefish. Allerdings hat auch er keine Code-Completion. Sehr ärgerlich! Und was die Projekte bringen, die man anlegen kann, weiß ich bis heute noch nicht. Richtig warm geworden bin ich auf jeden Fall nie mit Bluefish.

    Ausserdem wäre da ja noch der Alleskönner Eclipse, aber auch damit wurde ich noch nie so richtig warm, jedenfalls nicht in Form einer Webentwicklungsumgebung.

    Zahlreiche weitere Alternativen listet das ubuntuusers.de Wiki auf: Webeditoren

    Dort bin ich dann auch auf den Editor Komodo Edit aufmerksam geworden. Ich zitiere mal aus dem Wiki:

    Neben der hervorragenden Unterstützung von Skriptsprachen, speziell derer, die für die Webprogrammierung genutzt werden, hat das Programm eine exzellente Unterstützung von HTML / CSS / AJAX / Javascript + diverser Bibliotheken. Außerdem ist ein Firefox (eine Mozilla-Engine) zur schnellen Vorschau integriert. Die Community hat sich auf die Fahnen geschrieben, die IDE als Nr. 1 für die Entwicklung von Web 2.0 - Websites und der Arbeit mit Webframeworks zu machen (Django, Ruby on Rails, Turbogears - Unterstützung).

    Die IDE ist für eine Vielzahl von Sprachen geeignet, was die Code-Completion und das Syntax-Highlighting angeht, hat ihre Stärken aber vor bei der Programmierung mit Skriptsprachen wie Python, Perl, Ruby oder PHP. Auch auf die Programmierung in HTML, CSS und JavaScript wird großen Wert gelegt. Hier spielt das Mozilla-Toolkit, auf dem die Oberfläche programmiert wurde, ihre Stärken aus - man kann mit einem Klick die Webseite im eingebetteten Firefox betrachten.

    Das klingt doch schonmal gut! Das Projekt basiert auf der Komodo IDE, quasi dem großen Bruder von Komodo Edit. Diese ist 2007 als Open Source freigegeben wurden und nach und nach fließen diese Sachen nun alle in die kostenlose Edit-Version ein.

    Die Installation, wie im uu.de Wiki beschrieben klappte Reibungslos. Deswegen verzichte ich an der Stelle mal auf Einzelheiten und springe gleich zum nächsten Kapitel, der Benutzung.

    Komodo basiert auf der Mozilla Engine. Das hat einen Vor- und einen Nachteil: Es passt sich nicht 100%ig in Gnome ein, aber doch in einem Maße, in dem es mir nicht unangenehm auffällt, eigentlich gar nicht. Allerdings ist Komodo Edit plattformunabhängig, läuft also unter Windows, Linux und Mac OSX!

    Beim Aufrufen des Programmes begrüßt einen die “Start Page”:

    Hier bekommt man Tipps, Tutorials und Infos zu Komodo Edit, eine Internetverbindung vorausgesetzt, sog. Quick Links für einen Konfigurations Check und man kann Sample Files öffnen, dazu gleich mehr.

    Ausserdem werden einem “Recent Projects and Files” angezeigt, also zuletzt geöffnete/bearbeitete Dateien und Projekte. Alternativ gibt es auch die Möglichkeit ein neues Projekt oder eine neue Datei anzulegen.

    Die eben angesprochenen “Sample Files” sind gerade am Anfang sehr nützlich. Sie zeigen nämlich anhand jeder unterstützten Programmiersprache in Kommentaren und Codebeispielen was Komod Edit alles zu leisten vermag. Als Beispiel erwähne ich hier mal Background Syntax Checking, AutoComplete und Call Tipps für PHP:

    # Background Syntax Checking:
    #   - Syntax errors are underlined in red.
    #   - Syntax warnings are underlined in green.
    #   - Configure PHP Preferences to customize errors and warnings.
    #   - Position the cursor over the underline to view the error or warning
    #     message.
     
    # AutoComplete:
    #   - On a blank line below, enter "pri".
    #   - When you type the "i", Komodo lists functions starting with "pri".
    #   - Press 'Tab' to complete the function name.
     
    # CallTips
    #   - On a blank line below, type "print_r", followed by an open parenthesis "(".
    #   - Komodo lists the parameters for calling print_r().

    Und es funktioniert wirklich super! Es wäre jetzt mühselig alle Funktionen von Komodo Edit für alle die vom ihm unterstützten Sprachen aufzulisten. Ausserdem haben das ActiveState, die Macher von Komodo Edit schon freundlicherweise für mich übernommen ;)

    Komodo Edit - Feature Overview

    Ich kann im Großen und Ganzen Komodo Edit uneingeschränkt empfehlen! Es bietet, zumindest mir, alles was ich zum Entwickeln von Websiten mit PHP, HTML, CSS und Javascript/Ajax brauche! Meiner Meinung nach, ist das Momentan einer der besten Webentwicklungsumgebungen für Gnome. Probierts einfach mal aus…

    Ich bin Nutzer freier Software und prinzipiell könnte ich Geld spenden, um die Entwicklung zu finanzieren, aber in den meisten Fällen ist das helfen einfacher und praktischer. Ich für meinen Teil übersetze gerne für OSS-Projekte und heute habe ich die letzten Strings in der TaskCoach-Übersetzung in Launchpad übersetzt.

    Das schöne daran ist, dass man aktiv an der Verbreitung der Software mitarbeitet. Denn eine gut lokalisierte Anwendung findet in dem jeweiligen Land viel eher neue Nutzer. Auch welche, die vielleicht lieber den einen oder anderen Euro für das Projekt spenden.

    Was gebt ihr der Community zurück?

    Durch einen Kommentar wurde ich darauf hingewiesen, dass die Ubuntu LoCo Österreich hat ein neues Forum gegründet und dieses ist scheinbar schon eröffnet. Ich bin zwar scheinbar erst der 15.User der dieses Forum nutzt aber das kann noch werden ;)

    Die Adresse lautet: www.ubuntu-at.com

    Der Hintergrund zur neuen LoCo waren Meinungsverschiedenheiten zwischen diversen Moderatoren der alten LoCo und der Administratorin.

    Ich wünsche der neuen LoCo hiermit einen guten Start und viel Erfolg. Werde mich natürlich auch beteiligen und habe sie anstatt der alten LoCo unter Links eingetragen.

    Ganz erstaunt habe ich neulich festgestellt, dass bei meinem virtuellen Ubuntu-Serverli, welches ich bei HostEurope unterhalte, die Groupware Horde bereits installiert ist. Ich kann mich nicht erinnern, ob ich die virtuelle Kiste so bestellt habe oder ob sie die Default-Installation einfach selbst aus eigenen Stücken so vornehmen.

    Auf jeden Fall war ich positiv überrascht, denn ich halte diese Lösung nach wie vor für eine der besten im Bereich der Online-Groupware für “private Nutzer”. Einerseits ist die Software frei, läuft unter Linux/GNU und was mir auch gut gefällt, ist die Unterstützung von PGP. Obschon ich GMail und Konsorten auch gerne nutze, meine ich, dass all jene Lösungen nicht an diejenige von Horde herankommen.

    Und schon wieder eine Bestätigung, dass der Wechsel von Genotec zu HostEurope für mich richtig ist.

    Ähnliche Artikel

    Habe mich mal eben kurz mit Foren beschäftigt, und unter forum.ubuntu-blog.at ein kleines Forum eingerichtet in dem ausführlicher über die Inhalte meiner Beiträge diskutiert werden können. Dazu hab ich mir gedacht, kann jeder Fragen stellen, Kritik äussern oder Anregungen dazu einbringen was ich in meinem Blog so erwähnen könnte. Weiters kann natürlich auch über die Themen im Blog diskutiert werden und Dinge die Linux/Ubuntu betreffen können in einem weiteren Unterforum besprochen werden. Die Anmeldung erfolgt übrigens, ohne Verifizierung der E-Mailadresse oder freischaltung daher kann jeder dieses Forum schnell und einfach nutzen.

    Ich hoffe ihr nutzt es und würde mich über eure Beteiligung freuen.

    Langsam wird es langweilig ...

    Die Installation einer neuen Ubuntu-Version läuft bei mir immer nach dem gleichen Muster ab. So lief es bei Hardy und etwas ausführlicher bei Gutsy.

    Sebastian hat mir den Tipp gegeben, dass JFS einen Blick wert ist, was ich dann auch gleich eingerichtet habe. Bis jetzt kann ich keine besonderen Vor- oder Nachteile feststellen.

    Wer sich einmal mit Dateisystemen auseinandersetzen möchte, dem sei dieser Artikel im ubuntuusers.de-Wiki ans Herz gelegt, vor allem die angegebenen Links sind sehr aufschlussreich.

    KDE 4Irgendwann ging mein Automount unter KDE für mein CDROM bzw. DVD Laufwerk nicht mehr. Bei KDE 3.5.x war mir das recht egal, weil ich mir einfach ein Geräte-Icon auf den Desktop gelegt habe und die CD oder DVD mit einem Klick auf das Icon eingehängt und geöffnet habe. Unter KDE 4.1 gibt es allerdings das nette Plasmoid Geräteüberwachung (devicenotifier) das bei eingelegten CDs oder DVDs oder USB Sticks/Festplatten usw kurz aufpoppt und man sehr komfortabel das Stück Hardware einbinden und später über das gleiche Plasmoid wieder aushängen kann. Super Sache das.

    Die Lösung

    Lies mehr! »

    23. November 2008

    False-Postives (also e-mails die fälschlicher Weise als Spam eingestuft werden) kommen ja dank ausgeklügelter Spamfilter heutzutage recht selten vor. Am Wochenende hatte ich allerdings meinen ersten Offline-False-Positive.

    Da sich mein Erstwohnsitz immer noch bei meiner Familie befindet kriege ich dort natürlich gelegentlich auch Post (Snailmail). Bei wichtigen Sachen werde ich meistens zeitnah informiert (das ist dann quasi die Inbox), Werbung u.ä. wandert direkt in den Müll. Ausserdem gibt es noch ein kleines Körbchen wo der Rest gesammelt wird, also nichts dringendes, aber auch nichts was direkt in den Müll wandern müsste. Quasi der Spam-Ordner. Und genau hier fand ich auch das hier:

    Deshalb hier erst einmal ein herzliches Dankeschön an den Bürgermeister, der eigenhändigst diese Einladung zu den Chemnitzer Linux Tagen an jeden Bundesbürger (naja fast) verschickt hat ;-) sehr coole Idee!

    Ich werde zwar leider nicht nach Chemnitz fahren können, denn das Datum liegt leider mitten in der heißen Phase meiner Diplomprüfungs-Lernzeit. Aber vielleicht ist ja jemand von euch in der Lage den Bürgermeister und die Crew der Linux-Tage mit eurem Besuch zu beglücken.

    Tags: | | | |

    22. November 2008

    Nun gut, bei den Ubuntuusern hat sich schon herumgesprochen, dass die erste Jaunty-Jackalope-Alpha erschienen ist. Bemerkenswert finde ich diesmal jedoch weniger die Veröffentlichung der Alpha-1-Version -davon gibt es zweimal im Jahr eine- als vielmehr die Ankündigung auf der Mailingliste.

    Die wurde von Colin Watson mit den ersten Zeilen aus Song of the Jackalope von Roy Campbell geschmückt. So etwas liest man nicht alle Tage, daher habe ich mir erlaubt, diesen Abschnitt ebenfalls zu zitieren und zu übersetzen:

    On a western hillside, a pack of hungry coyotes flushed their prey from a thicket of scrub mesquite. With gleeful yips, they began pursuing what first appeared to be a large jack rabbit. But what was this thing? In between its long ears, the animal was sporting a set of small antlers similar to those of an antelope. Darting first to the left, and then to the right, it reached the bottom of the hill where it put on a burst of speed and quickly outran the trailing coyotes. Once at a safe distance, the creature stopped, turned around and emitted several coyote-like yips in a rude mockery of its hapless pursuers. The sounds seemed to linger tauntingly upon the air as the discouraged pack abandoned the chase. From this small episode, the artful and elusive jackalope emerged from the shadows of an Old West legend.

    Meine (freie) Übersetzung:

    Auf einem westlichen Abhang drängte ein hungriges Koyoten-Rudel seine Beute aus einem Dickicht von Mesquite-Sträuchern. Mit freudigem Japsen begannen sie die Jagd auf etwas, das zuerst wie ein großer Hase aussah. Aber was war das für ein Ding? Zwischen seinen langen Ohren trug das Wesen ein kleines Geweih, ähnlich dem einer Antilope. Zuerst nach links, dann nach rechts Haken schlagend, erreichte es die Unterseite des Hügels wo es an Geschwindigkeit zulegte und die verfolgenden Koyoten rasch hinter sich ließ. Auf sicherer Distanz angekommen, stoppte das Geschöpf und drehte sich um, um mehrere Koyoten-ähnlichen Heullaute in bösartigem Hohn auf die glücklosen Verfolger auszustoßen. Der Klang schien spöttisch in der Luft nachzuhallen während die entmutigten Verfolger die Jagd aufgaben. Mit dieser kurzen Episode tauchte der schlaue und scheue Jackalope aus dem Schatten einer Wild-West-Legende auf.

    Aus Song of the Jackalope von Roy Campbell

    Anmerkung: Der Jackalope ist zwar ein mit dem bayrischen Wolpertinger vergleichbares Fabelwesen. Die Übersetzung "übermütiger Wolpertinger" für "Jaunty Jackalope" ist jedoch falsch, da es sich um einen Namen beziehungsweise eine Bezeichnung handelt, für die es keine Übersetzung gibt.