ubuntuusers.de

22. Januar 2011

gnome terminal 150x120 Systembackup mit rsync

Shell

English version

Immer wieder liest oder hört man davon:

Das Backup

Stellt sich nur die Frage, warum so wenig Menschen eigentlich privat ein Backup machen. Gerade mit Unix-Systemen ist das dank rsync sehr einfach. Zunächst solltet ihr jedoch ein paar Dinge über rsync wissen: rsync ist ein Netzwerkprotokoll zur Synchronisierung von Dateien. Das interessante an rsync ist, dass es in der Lage ist Bruchteile einer Datei zu vergleichen und falls erforderlich auch nur diese zu ändern. Wurde zum Beispiel in einer großen Konfigurationsdatei nur eine Zeile geändert wird auch nur diese über das Netzwerk verschickt. Das macht das Programm sehr performant und ressourcensparend.Auch ich sichere meine Unixsysteme mit rsync. An Hand von meiner /bin/backup.sh will ich nun zeigen wie so eine Zeile eines backup-bashscriptes aussehen könnte.

  • -a fasst folgende Optionen zusammen:
    • -r kopiert Unterverzeichnisse
    • -l kopiert symbolische Links
    • -p behält Rechte der Quelldatei bei
    • -t behält Zeiten der Quelldatei bei,
    • -g behält Gruppenrechte der Quelldatei bei
    • -o behält Besitzrechte der Quelldatei bei (nur root)
    • -D behält Gerätedateien der Quelldatei bei (nur root)
  • -z Komprimiert die Daten vor dem Senden (sollte beim speichern im Netzwerk verwendet werden)
  • -c sorgt dafür, dass zum Vergleich der Dateien Checksummen gebildet werden und nicht nur die Größe und der Timestamp verglichen werden. Diese Methode kann etwas länger dauern.
  • ‘-e ssh’ definiert die remote shell
  • –delete sorgt dafür, dass Dateien, die im Quellverzeichnis gelöscht wurden, auch im Ziel gelöscht werden. Das ist wichtig damit keine verwaisten Dateien angehäuft werden
  • –stats erstellt mir eine kleine Statistik über das Backup für die Ausgabe ans Log
  • ‘–exclude=foobar’ schließt eine Maske (hier “foobar”) vom Backup aus

Es folgt der Zielpfad an den ich ein $(hostname) gehängt habe. Das ist praktisch, wenn man mehrere System an einem Ort sichern möchte den “/$(hostname)” wird einen Unterordner mit dem Hostnamen erstellen (zum Beispiel “claw-desktop”)

Und dann noch der Export in die /var/log/ mit Bezeichnung und Datumsstempel: “backup$(date +%Y%m%d)”


Das ganze Script lasse ich dann einfach täglich von root per cronjob ausführen und externe Geräte kopieren nach dem gleichen Schema in den entsprechenden Samba-Mountpoint.

Ich hoffe ich kann damit manch einem helfen damit einen Überblick über rsync zu bekommen. Bei Fragen könnt ihr euch gerne an mich wenden – Ich beiße nicht.

21. Januar 2011

Wie im Ikhaya Artikel angekündigt wird Inyoka, die Software hinter ubuntuusers.de, nun auch für die openSUSE Community community.open-slx.de eingesetzt.

Um Fehlermeldungen von community.open-slx.de und ubuntuusers.de auf einer Plattform zu sammeln, wurde trac.ubuntuusers.de auf trac.inyokaproject.org gelegt, um auch den abstrakten Gedanken der Entwicklung zu repräsentieren. Die Wikiseiten wurden entsprechend angepasst.

Ab heute bitten wir euch, Diskussionen zu neuen Features wenn möglich im entsprechenden Trac zu führen, um Duplikate zwischen den Communities zu vermeiden. Wenngleich das Forum weiterhin jedem offen steht, der Fragen hat oder Fehler melden möchte, bitten wir jeden, hauptsächlich den neuen Trac zu benutzen. Ihr könnt euch dort auch registrieren, um Benachrichtigungen über eure Tickets zu erhalten.

Eine USB Installation von Linux, Ubuntu ist sehr zu empfehlen. Netbook Nutzer haben sowieso keine andere Wahl, als zum USB Stick zu greifen. Trotzdem hat die Installation via USB auch allgemeine Vorteile, zum Beispiel eine schnellere Installation als bei der herkömlichen CD. Auch unterwegs ist ein Stick, von dem man Linux booten kann, sehr praktisch.

Ein kleiner Vergleich der bekanntesten Programme, deren Vor- und Nachteile und Funktionen.

1. LinuxLiveUSB (Windows 7, Vista, XP)(Live, persistent)

+ Installation in eine portable Virtual Box möglich
+ Unterstützung für sehr viele Linux-Distributionen
+ Persistent-Modus. Geschriebene Daten (neue Programme, Dateien) werden auf dem Stick gespeichert
+ Automatischer Download der Linux ISO’s – Programm kann nur unter Windows installiert werden

2. unetbootin (Linux und Windows) (nur Live-Modus)

+ Installation unter Windows und Linux möglich
+ automatischer Download der Linux CD’s
+ sehr guter Support für viele Distros
+ bietet auch die Möglichkeit Systemtools auf USB-Stick zu installieren (z.B. FreeDOS, Super Grub Disk, Parted Magic)
- nur Live-Modus

3. USB-Creator (Linux)(Live-Modus, persistent)

+ oft schon vorinstalliert (z.B. unter Ubuntu)
+ persistenter Bereich kann definiert werden
- kein Download der Images möglich (nur Datei oder CD)
- nur unter Linux lauffähig

GNOME: “System -> Systemverwaltung -> Startmedienersteller”
KDE: “Programme -> System -> Startup Disk-Creator”

4. Universal USB Installer (Windows)(persistent)

+ persistenter Modus verfügbar
- nur unter Windows einsetzbar

11 Kommentare | Kommentar schreiben | Ubuntu, Linux auf USB Stick installieren

Seit etwas mehr als einem Jahr entwickle ich nun mehr oder weniger regelmäßig für webOS. Im Folgenden möchte ich ein paar Tipps weiter geben, welche mir im Laufe der Zeit immer wieder geholfen haben. Heute also: Logging!

Logging von Javascript-Objekten oder JSON-Objekten:

Immer wieder kommt es vor, dass man sich den Inhalt eines Objektes ansehen will oder einfach nur schauen möchte, ob eine Variable den Wert null oder undefined hat. Dazu nutzt man am besten die Logging-Funktion von Mojo:

Mojo.Log.info("My Object: %j", myObject);

Logging auf Info-Level auf einem webOS Gerät:

Während der Emulator Logging Informationen auf dem Info-Level ausgibt, gibt ein webOS Gerät standardmäßig nur Meldungen auf dem Error-Level aus, d.h. alle Mojo.Log.info bzw. Mojo.Log.warnig erscheinen nicht, wenn man die Logs auf dem Gerät verfolgt. Mit dem Befehl palm-log lässt sich jedoch das Logging auf Info-Ebene auf einem Gerät aktivieren:

palm-log --system-log-level info

Logs von einem Benutzer bekommen

Oft hat man als Entwickler das Problem, dass ein Benutzer einen Bug in der App feststellt und man gern ein paar Logging-Informationen hätte. Dies lässt sich relativ einfach in einer webOS-App implementieren. Dazu legt man einfach in der stage-assistent.js oder app-assistent.js eine globale Variable an:

logging ="----" + Mojo.appInfo.title + " " + Mojo.appInfo.version + " Log-----";

Nun kann in jedem Scene-Assistent auf diese Variable zugreifen und Logging-Informationen ergänzen, z.B.:

logging += "ERROR: Meine Fehlermeldung"  + " \n";

Damit der Benutzer diese Infos auch schicken kann, fügt man am besten im AppMenu einen Menüpunkt ein (“Send Logs”), welcher daraufhin eine neue eMail öffnet mit den Logging-Infos als Nachrichtentext:

this.controller.serviceRequest('palm://com.palm.applicationManager', {
					method: 'open',
					parameters: {
						id: 'com.palm.app.email',
						params: {
							summary: "My App Logs",
							text: logging,
							recipients: [{
								type:"email",
								role:1,
								value:"foo@example.com",
								contactDisplay:"Foo"
							}]
						}
					}
				});

Wer noch weitere Tipps hat, die das Logging erleichtern, einfach einen Kommentar hinterlassen.

Kommentar hinzufügen

Die Document Foundation hat den vierten Release Candidate des freien Office-Pakets LibreOffice zum Download freigegeben.

LibreOffice LogoIm Oktober des vergangenen Jahres gründeten Mitglieder der OpenOffice-Community die Stiftung The Document Foundation, um die Entwicklung der freien Office-Suite unabhängig von der Firma Oracle weiterzuentwickeln.

Da Oracle jedoch im Besitz der OpenOffice.org-Markenrechte ist, musste man sich seitens der Stiftung für einen neuen Namen entscheiden. So wurde LibreOffice zum Quasi-Nachfolger von OpenOffice.org.

Trotz dieser Abspaltung fliessen die Fehlerkorrekturen und Verbesserungen des OpenOffice.org-Projektes auch in LibreOffice ein.

In einer englischsprachigen Liste können interessierte Nutzer alle Neuerungen des vierten Veröffentlichungskandidaten von LibreOffice 3.3 nachlesen.

Achtung! Da LibreOffice 3.3 RC4 noch den Status einer Vorabversion hat, sollte man diese ausschliesslich zu Testzwecken verwenden.

Eigentlich wollte ich keinen Artikel mehr über den Android Emulator schreiben, aber wie es halt so ist, kommt es anders als man denkt.

Dieser Beitrag geht noch auf die Thematik ein, den Android Market auch für das Android 2.2 nutzen zu können.

Wie schon in vorherigen Beiträgen beschrieben, kann man im Emulator den Android Market von Google nutzen. Das konnte ich bis jetzt aber nur mir der Version 1.6. Das ist schon eher eine in die Jahre (Monate) gekommene Version und passt nicht mehr so in die aktuelle Zeit. Da viele Apps erst ab Version 2.1 oder höher laufen, ist ein Market in dieser Version wünschenswert. Daher wäre es nötig, den Market für die Version 2.2 oder sogar 2.3 nutzen zu können. Im Netz gibt es einige Beschreibungen auf englisch, die sind aber so komplex, dass einem das Installieren fast zermürbt. Ich habe aber nicht aufgegeben und einen Hinweis von Egon Halmer gefunden, den ich ausprobiert habe. Und siehe da, es ist sehr einfach möglich den Android Market auf den Emulator 2.2 zu bringen.

Ablauf

  • Download der benötigten Image Datei
  • Bearbeitung eines AVD’s
  • Konfiguration des Markets

In diesen einfachen 3 Schritten ist der Market in kürze eingebunden.

Voraussetzungen

  • Als erstes wird das Android SDK benötigt (Artikel: Android mit Ubuntu)
  • Im nächsten Schritt wäre das Wissen über die Bedienung des Emulators nötig (Artikel: Android Emulator mit Ubuntu)
  • Dann braucht man die Datei system.img für das AVD Image
  • Natürlich ein wenig Lust und Zeit

Download der benötigten Image Datei

Die benötigte Datei kann man hier downloaden. Aus dem Archiv muss die Datei system.img entpackt werden. Das Original mit etwas langsameren Download findet man hier.

Bearbeitung eines AVD’s

Als nächster Schritt muss man das AVD bearbeiten. Darunter versteht man eigentlich den wesentlichen Schritt, die Datei system.img an die richtige Stelle zu kopieren.

  • Am besten ein neues AVD erstellen
  • Das AVD noch nicht starten, zuerst die Datei system.img in das AVD kopieren
  • Jetzt das AVD starten. Fertig. Schon kommt beim Start die Konfiguration des Markets

Konfiguration des Markets

Leider funktioniert der Market an dieser Stelle noch nicht zu 100%. Das macht nichts, mit einigen kleinen Handgriffen kann man das jetzt einrichten. Bitte genau folgenden Ablauf durchführen:

  • Nach der Sprachauswahl den Market beenden und keinen Account etc. konfigurieren
  • Den Market wieder starten
  • Mit der Home-Taste zurück zum Startbildschirm
  • Mit der Einstellungstaste weiter zu den Einstellungen und Anwendungen wählen
  • Anwendungen verwalten
  • Wird ausgeführt auswählen
  • Market auswählen und Cache löschen, Stoppen erzwingen wählen und zurück Taste drücken
  • Das gleiche nocheinmal mit Google Service Framework durchführen. Hier noch die Daten löschen
  • Mit der Home-Taste nach Hause gehen und das AVD ausschalten.

Nach dem erneuten Start des AVD’s kann man nun den Market nutzen.

Fazit

Eine gute und einfache Sache um den Google Market auch unter Android 2.2 im Emulator testen zu können.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Ubuntu App des Tages: Tray Icon Changer

Auf der Suche nach Wegen, wie man die Panel-Icons in Ubuntu ändern kann, habe ich ein interessantes Skript im Ubuntuusers.de-Forum gefunden: Tray Icon Changer

Meister0815 hat das Skript geschrieben um die Icons im Panel zu verändern. Das Skript funktioniert am besten mit den Standard-Icon-Sets von Ubuntu. Es überschreibt die bestehenden Panel-Icons mit dem von euch gewähltem Icons. So müsst ihr das nicht mehr selbst mit der Hand machen.

Ihr könnt Tray Icon Changer auf der Profil-Seite von Meister0815 downloaden.

20. Januar 2011

Subversion Logo

Subversion Logo

In diesem Beitrag schreibe ich darüber, wie man Subversion (SVN) von A bis Z auf seinem Server einrichtet. Das Tutorial geht quasi von Nichts bis zum ersten externen Subversion (SVN) Checkout.  Zudem wird auch Dropbox in den Beitrag miteinbezogen. Der Beitrag kann 1:1 ausprobiert werden.

Inhalt

Was ist Subversion (SVN)?
Eigener Subversion (SVN) Server vs. Dropbox
Die Umgebung
Die Konfiguration des Subversion (SVN) Servers
Erstes Repository anlegen
Die Konfiguration des externen Zugangs
Die Konfiguration des Clients
Der erste externe Checkout
Subversion (SVN) kombiniert mit Dropbox
Schlusswort
Quellen

Was ist Subversion (SVN)?

Subversion (SVN) ist ein Versionsverwaltungssystem für Dateien und Ordner. Für jede Änderung an einer Datei oder an einem Ordner gibt es eine neue Version. Ältere Versionen von Dateien und Ordner können wenn nötig wiederhergestellt werden.

Ich habe mir aus folgenden Gründen einen Subversion (SVN) Server konfiguriert

  • Daten sind über HTTPS von praktisch überall erreichbar
  • Daten müssen nicht mehr mit USB von PC zu PC kopiert werden weil sie zentral auf dem Server liegen
  • Versionsverwaltungssystem. Schluss mit “Ach, auf welchem PC liegt nun die aktuellste Version der Datei?”
  • Backup. Auf jedem Client liegt quasi ein Backup der Daten

Eigener Subversion (SVN) Server vs. Dropbox

Über die Pros und Contras gibt es sicher unterschiedliche Ansichten. Ich freue mich auf die Diskussion in den Kommentaren ;-) .

Dropbox Pro

  • Benötigt keinen eigenen Server
  • Wahrscheinlich höhere Verfügbarkeit als eigener Server
  • Dateien und Ordner werden ohne weiteres Skrippten automatisch synchronisiert
  • Sehr einfache Bedienung für einen Benutzer

Dropbox Contra

  • Speicherplatz nur 2GB (bis zu 10GB gratis)
  • Daten sind extern gehostet
  • Versionen älter 30 Tage können nicht mehr wiederhergestellt werden

Eigener Subversion (SVN) Server Pro

  • Mehr Speicherplatz (hängt natürlich vom Server ab)
  • Daten sind nicht extern gehostet
  • Keine Zeitlimitierung der Versionen
  • Man kann selbst ausprobieren und konfigurieren (grösserer Lerneffekt)
  • Grösserer Funktionsumfang als Dropbox (erweiterbar)

Eigener Subversion (SVN) Server Contra

  • Ein eigener Server wird benötigt der 24h * 7d läuft
  • Ausfälle sind wahrscheinlicher
  • Ein gewisses Know How muss vorhanden sein

Zusammenfassend hat der eigene Subversion (SVN) Server mehr Ressourcen und Dropbox dafür eine höhere Verfügbarkeit, jedoch sind die Daten mit Dropbox extern gehostet. Mit Subversion (SVN) und Dropbox in Kombination kann man das Maximum erreichen.

Umgebung

Dies ist die Umgebung in diesem Beitrag. Eure Umgebung muss nicht exakt die gleiche  sein. Bei Unsicherheiten fragt einfach in den Kommentaren oder schreibt mir.

Externer Zugang

  • DynDNS Adresse wie zum Beispiel root1024.dyndns.info

Router

  • pfSense
  • DNS Forwarding konfigurierbar
  • DynDNS konfigurierbar

Server

  • Aktuelles Debian
  • Apache Webserver
  • Subversion

Client

  • Windows 7
  • Tortoise SVN Client

Die Konfiguration des Subversion (SVN) Servers

Apache / Subversion installieren und für die Adresse konfigurieren
Apache / Subversion installieren

aptitude install subversion apache2 libapache2-svn

Neue Seite von der Default Seite kopieren

cp /etc/apache2/sites-available/default /etc/apache2/sites-available/root1024.dyndns.info

Verzeichnis für die neue Seite erstellen

mkdir /var/www/root1024.dyndns.info
touch /var/www/root1024.dyndns.info/index.html
chown -R www-data:www-data /var/www/root1024.dyndns.info/

In /etc/apache2/sites-available/root1024.dyndns.info werden die Werte ServerName und DocumentRoot angepasst

ServerName root1024.dyndns.info # Deine Adresse
DocumentRoot /var/www/root1024.dyndns.info/ # Pfad zum Verzeichnis der Seite

Die Seite aktivieren

a2ensite /etc/apache2/sites-available/root1024.dyndns.info

und apache neustarten

/etc/init.d/apache2 restart

Nachdem wir im DNS Server einen Eintrag von root1024.dyndns.info –> SVN Server IP eingerichtet haben, ist die Webseite jetzt über http://root1024.dyndns.info erreichbar.
Apache um SSL erweitern
Das SSl Modul von Apache aktivieren

a2enmod ssl

Neue Seite von der SSL-Default Seite kopieren

cp /etc/apache2/sites-available/default-ssl /etc/apache2/sites-available/root1024.dyndns.info-ssl

Das SSL Zertifikat erstellen

mkdir /etc/apache2/ssl
openssl req -new -x509 -days 365 -nodes -out /etc/apache2/ssl/apache.pem -keyout /etc/apache2/ssl/apache.pem
ln -sf /etc/apache2/ssl/apache.pem /etc/apache2/ssl/`/usr/bin/openssl x509 -noout -hash < /etc/apache2/ssl/apache.pem`.0
chmod 600 /etc/apache2/ssl/apache.pem

In /etc/apache2/sites-available/root1024.dyndns.info-ssl werden die Werte ServerName, DocumentRoot und SSLCertificateFile angepasst. Die Zeile SSLCertificateKeyFile wird auskommentiert oder entfernt.

ServerName root1024.dyndns.info
DocumentRoot /var/www/root1024.dyndns.info
SSLCertificateFile    /etc/apache2/ssl/apache.pem
#       SSLCertificateKeyFile /etc/ssl/private/ssl-cert-snakeoil.key

Ohne Kommentare sieht die Datei so aus

<IfModule mod_ssl.c>
<VirtualHost _default_:443>
        ServerAdmin webmaster@localhost
        ServerName root1024.dyndns.info
        DocumentRoot /var/www/root1024.dyndns.info/
        <Directory />
                Options FollowSymLinks
                AllowOverride None
        </Directory>
        <Directory /var/www/root1024.dyndns.info/>
                Options Indexes FollowSymLinks MultiViews
                AllowOverride None
                Order allow,deny
                allow from all
        </Directory>

        ScriptAlias /cgi-bin/ /usr/lib/cgi-bin/
        <Directory "/usr/lib/cgi-bin">
                AllowOverride None
                Options +ExecCGI -MultiViews +SymLinksIfOwnerMatch
                Order allow,deny
                Allow from all
        </Directory>

        ErrorLog /var/log/apache2/error.log

        LogLevel warn

        CustomLog /var/log/apache2/ssl_access.log combined

        Alias /doc/ "/usr/share/doc/"
        <Directory "/usr/share/doc/">
                Options Indexes MultiViews FollowSymLinks
                AllowOverride None
                Order deny,allow
                Deny from all
                Allow from 127.0.0.0/255.0.0.0 ::1/128
        </Directory>

        SSLEngine on

        SSLCertificateFile    /etc/apache2/ssl/apache.pem

        <FilesMatch "\.(cgi|shtml|phtml|php)$">
                SSLOptions +StdEnvVars
        </FilesMatch>
        <Directory /usr/lib/cgi-bin>
                SSLOptions +StdEnvVars
        </Directory>

        BrowserMatch ".*MSIE.*" \
                nokeepalive ssl-unclean-shutdown \
                downgrade-1.0 force-response-1.0
</VirtualHost>
</IfModule>

Die Seite aktivieren

a2ensite /etc/apache2/sites-available/root1024.dyndns.info-ssl

und apache neustarten

/etc/init.d/apache2 restart

Die Webseite ist jetzt unter https://root1024.dyndns.info erreichbar.

Erstes Repository anlegen

Ein neues Repository wird mit

mkdir -p /var/local/subversion/projekt
chown -R www-data:www-data /var/local/subversion/projekt
svnadmin create --fs-type fsfs /var/local/subversion/projekt

angelegt. In den Dateien /etc/apache2/sites-available/root1024.dyndns.info und /etc/apache2/sites-available/root1024.dyndns.info-ssl muss noch der Block

<Location /projekt> # Teil der URL https://root1024.dyndns.info/projekt
	DAV svn
	AuthType Basic # oder Digest
	AuthName "Projekt" # Bereichsname bei der Authentifizierung
	AuthUserFile /etc/apache2/subversion.passwd # Pfad zur Datei mit Benutzern und Passwörtern
	SVNPath /var/local/subversion/projekt # Pfad zum Repository
	Require valid-user # Nur gültige Benutzer haben Zugriff auf das Repository
</Location>

hinzugefügt werden. Der erste Benutzer für Subversion (SVN) wird mit

htpasswd -c /etc/apache2/subversion.passwd Benutzer

erstellt. Jeder weitere Benutzer mit

htpasswd /etc/apache2/subversion.passwd Benutzer

Stefan hat mich noch auf AuthType Digest hingewiesen. Mit dieser Einstellung wird bei der Authentifizierung über HTTP das Passwort nicht im Klartext, sondern verschlüsselt gesendet. So kann das Passwort nicht gesnifft werden. Die übertragenen Daten sind jedoch immer noch unverschlüsselt, weshalb man SSL (HTTPS) nutzen sollte! Mit SSL (HTTPS) werden die Authentifizierung und die übertragenen Daten verschlüsselt, somit reicht wenn über SSL (HTTPS) AuthType Basic.

Die Konfiguration des externen Zugangs

DynDNS

Um den Router aus dem Internet zu erreichen verwendet ihr entweder direkt eure öffentliche IP oder ihr richtet bei DynDNS einen Account und eine Adresse ein. Zweites ist empfohlen, wenn ihr eine dynamische öffentliche IP habt. Der Router leitet später die richtigen Anfragen an den Subversion (SVN) Server weiter.

Nachdem ihr einen Account bei DynDNS erstellt und eine Adresse (Hostname) eingerichtet habt, ist euer Router über die Adresse erreichbar. Dies kann einfach mit nslookup geprüft werden.

nslookup root1024.dyndns.info
Server:  Router
Address:  192.168.0.1

Nicht autorisierende Antwort:
Name:    root1024.dyndns.info
Address:  88.198.47.75

Falls die öffentliche IP wechselt muss der Router DynDNS die neue öffentliche IP mitteilen. Dies muss noch am Router konfiguriert werden. Bei pfSense befindet sich die Konfiguration unter “Services –> Dynamic DNS”. Auf dieser Seite den Bereich “Dynamic DNS client” aktivieren und die Daten ausfüllen mit Adresse (Hostname) wie zum Beispiel root1024.dyndns.info, User und Passwort.

Nun könnt ihr euren Router vom Internet her über die Adresse (Hostname) immer erreichen, auch wenn die öffentliche IP wechselt.

Firewall Regel

Damit der Router alle Anfragen auf Port 443 an den Subversion (SVN) Server weitergibt, muss im Router noch eine Firewall Regel konfiguriert werden. In pfSense geschieht dies unter “Firewall –> NAT”. In pfSense kann die NAT Regel wie folgt konfiguriert werden:

Firewall Regel

Firewall Regel

DNS Forwarding

Mit einem älteren Router habe ich das Problem gehabt, dass die Anfrage an die Adresse zum Provider ging und vom Provider an meinen Subversion (SVN) Server. Die Geschwindigkeit war aus unerklärlichen Gründen kleiner als 1KB/s. Der Router hat nicht gemerkt, dass die Adresse auf eine IP im internen Netzwerk zeigt. Solltet ihr ähnliche Probleme haben, leitet die Adresse wie zum Beispiel root1024.dyndns.info an eurem DNS Server gleich an die IP des Subversion (SVN) Servers weiter.

Jetzt ist der Subversion (SVN) Server vom Internet via HTTPS (Port 443) und vom internen Netzwerk via HTTPS (Port 443) und HTTP (Port 80) über die Adresse verfügbar.

Die Konfiguration des Clients

Auf dem Windows Client muss nur ein SVN Client wie zum Beispiel TortoiseSVN (download 32 Bit | download 64 Bit) installiert werden. Die Installation von TortoiseSVN benötigt einen Neustart des Computers.

Der erste externe Checkout

Das Repository sollte von extern über einen Browser erreichbar sein. Funktioniert dies ist der erste externe Checkout mit TortoiseSVN schnell erledigt.

Checkout

Checkout

Subversion (SVN) kombiniert mit Dropbox

Die SVN Daten können in Dropbox ausgelagert werden für den Fall, dass der eigene Subversion (SVN) Server einmal nicht erreichbar sein sollte. Die Daten können einfach mit rsync oder robocopy synchronisiert werden. Die .svn Ordner können in cmd einfach mit

FOR /F "delims=" %var IN ('dir C:\Users\Benutzer\Desktop\projekt /b /s /a:H .svn') DO rmdir /S /Q %a

und unter Linux mit

find /tmp/projekt/ -name .svn -exec rm -r {} \;

gelöscht werden.

Schlusswort

Alles in Allem bin ich mit meinem privaten Subversion (SVN) Server, den ich schon seit ca. 2 Jahren nutze, sehr zufrieden. Ich hoffe der Beitrag hilft euch weiter bei der Installation und Konfiguration von einem Subversion (SVN) Server. Ich muss noch betonen, dass man mit einem eigenen Subversion (SVN) Server sehr viel mehr Möglichkeiten hat als in diesem Beitrag aufgezeigt werden.

Bei Fragen einfach einen Kommentar schreiben oder das Kontaktformular benutzen. Freue mich wie immer über Kritik und Lob.

Quellen

Ubuntuusers Subversion

Ubuntuusers Apache SSL

LibreOffice ist nun die Standard Office-Suite in Ubuntu 11.04 Natty Narwhal. Ein Update der Natty Alpha hat heute Morgen OpenOffice durch LibreOffice ersetzt.

Das Set von Programmen, das sich noch im Release Candidate Status befindet, war schon lange für das Standard Programm-Lineup vorgesehen. Mark Shuttleworth sagt dazu:

Das Ubuntu Projekt freut sich, LibreOffice von The Document Foundation in zukünftigen Versionen von Ubuntu bereitzustellen.

Vorausgesetzt es gibt keine größeren Probleme in den LibreOffice und Natty Entwicklungsphasen, ist LibreOffice die Standard Office-Suite in Ubuntu 11.04 Natty Narwhal.


Tagged: 11.04, Narwhal, Natty, Ubuntu, ubuntuusers

Vor einigen Tagen ist die Version 4.8 des Desktopleichtgewichtes XFCE erschienen und das nach zweijähriger Entwicklingszeit. Der Dateimanager Thunar kommt jetzt mit optionalem GVFS Support, dadurch ist es nun möglich auch auf Remoteressourcen zu zugreifen, wie (S)FTP, Windows Shares, WebDav. Der Prozessdialog des Dateimanagers wurde ebenfalls überarbeitet und zeigt nun in einem einzelnem Dialog alle Operationen an. Entfernbare Datenträger haben nun einen “Eject Button”, der im linken Seitenpanel des Dateimanagers angezeigt wird und können so einfach entfernt werden.
Viele Änderungen erfuhr das Panel, so das Größen und Positionierungshandling verbessert und ausserdem ist es jetzt möglich dem Panel transparente Hintergründe zu verpassen. Der Editor für die Plugins welche man dem Panel hinzufügen kann wurde ebenfalls vereinfacht und überarbeitet. Ausserdem ist es jetzt möglich per Drag&Drop Launcher aus dem Menü im Panel zu platzieren. Das Iconbox und Tasklist-Plugin wurden zu einem Plugin, welches nun Windows Button genannt wird zusammengefaßt. Auch die Uhr hat wie immer einen neuen Modus erhalten, den fuzzy Mode, bei dem die Zeit in Worten angezeigt wird. Standardmäßig gibt es jetzt auch ein Dateiordner-Plugin zum schnellen Anzeigen von Verzeichnisinhalten.
Auch der Einstellungsdialog von XFCE wurde überarbeitet, so kann der jetzt mit “multihead setups” umgehen, allerdings nur mit randr 1.2 kompatiblen Treibern, dass heisst proprietäre NVidia Treiber bleiben aussen vor. Ausserdem ist es möglich die Einstellung vorher zu testen, durch eine sogenannte “Timed Confirmation” sollte die gewählte Einstellung nicht funktionieren, kann man zur vorhergehenden zurückkehren. Es gibt zudem einen Quick Setup Dialog, mit dem man in nur wenigen Sekunden eine Umstellung vornehmen kann. Dazu einfach Windows + p drücken, das gewünschte Monitorlayout wählen und fertig.
All diese Änderungen bringen XFCE mehr zu einem modernen Desktop, die meisten Änderungen bringen Anforderungen die ein durchschnittlicher Nutzer heute an ein System stellt.

Ubuntu App des Tages: Tray Icon Changer

Auf der Suche nach Wegen, wie man die Panel-Icons in Ubuntu ändern kann, habe ich ein interessantes Skript im Ubuntuusers.de-Forum gefunden: Tray Icon Changer

Meister0815 hat das Skript geschrieben um die Icons im Panel zu verändern. Das Skript funktioniert am besten mit den Standard-Icon-Sets von Ubuntu. Es überschreibt die bestehenden Panel-Icons mit dem von euch gewähltem Icons. So müsst ihr das nicht mehr selbst mit der Hand machen.

Ihr könnt Tray Icon Changer auf der Profil-Seite von Meister0815 downloaden.

The post Panel-Icons in Ubuntu ändern appeared first on Rockiger.

Was ist Jabber?

XMPP (früher Jabber) ist ein Nachrichten-Protokoll (Instant Messaging), so dass heute eigentlich niemand mehr auf ICQ, MSN etc. angewiesen ist. Es gibt viele Servern (z.B. jabber.ccc.de oder jabber.org) welche Jabber nutzen, bei diesen Servern kann man sich kostenlos einen Account erstellen und damit auch Kontakten auf anderen Jabber-Servern kontaktieren. Es gibt viele Vorteile gegenüber proprietären Lösungen, z.B. kann man die Kommunikation verschlüsseln, man kann seinen eigenen Jabber-Server installieren, man kann Chat-räume (mit Passwortschutz) anlegen, sich mehrfach anmelden und fast jeder hat bereits einen Jabber-Account (auch wenn es die wenigsten wissen). Ich will an dieser Stelle gar nicht weiter auf die Vor- und Nachteile eingehen, dass haben andere bereits getan. -> blog.jbbr.net/against-icq/ & de.wikipedia.org/wiki/ICQ#Kritik


Wer sich noch gar nicht nach einer Alternative zu ICQ umgesehen hat, sollte einmal auf der folgenden Webseite schauen, wie man ein Jabber kompatibles Chat-Programm installiert. -> einfachjabber.de/oslist

Und wer direkt im Browser chatten möchte, kann sich z.B. folgende Webseite anschauen www.meebo.com oder einen Jabber-Server nutzen, welcher einen Web-Chat anbietet. z.B.: -> www.ubuntu-jabber.de


Bei den Programmen muss man zwischen Programmen unterscheiden, welche voll auf Jabber ausgelegt sind (z.B. psi) und denen, wo man zusätzliche andere Protokolle nutzen kann (Multi-Protokoll-Clients). In Kombination mit einem dafür ausgelegtem Jabber-Server, welcher sogenannte Transports (Gateways) anbiete (leider tun dies aus rechtlichen Gründen nicht alle) kann man dann auch ICQ, AIM, Yahoo Messenger, MSN uvm. direkt über Jabber erreichen. Dabei sollte man jedoch beachten, dass eventuelle Änderungen z.B. von ICQ die Verbindung zwischen "PC" -> "Transport" -> "ICQ" behindern können. -> www.swissjabber.ch/index.php/Transports & de.wikipedia.org/wiki/XMPP-Transport



Jabber-Transport

Jabber-Transport



Hier noch eine Übersicht über einige Jabber-Server + Transports. So sieht man z.B. schnell, dass gmx-Server Transports anbietet. -> www.jabberes.org/servers/servers_by_times_online.html


Wer nutzt Jabber?

Wer bereits über eine Gmail (Google-Mail), GMX oder Web.de E-Mail Adresse verfügt kann diese Adresse als Jabber Account benutzen. Jeder der bei GMX oder Web.de angemeldet ist hat daher bereits einen Jabber-Account, Benutzername und Passwort sind identisch. Zudem benötigt man (normalerweise) nur eine Adresse, um mit allen anderen Jabber-Usern zu kommunizieren, somit ist man nicht mehr auf einen zentralen Server (Dienst) angewiesen. Normalerweise habe ich in Klammern geschrieben, da z.B. "Facebook" oder auch "StudiVZ / SchülerVZ / MeinVZ" Jabber anbieten, dies jedoch nicht nach dem Standard betreiben, so dass man zwar mit seinen Kontakten z.B. seinen Facebook-Freunden chatten kann,  jedoch nicht zu anderen Servern kommunizieren kann.



Jabber-Network

Jabber-Network


Wie nutze ich Jabber?

1.) Entscheidung

Wie bereits in der Einführung beschrieben, benötigen wir als erstes einen Client (Chat-Programm), daher müssen wir uns entscheiden, ob wir voll auf den Jabber-Dienst setzen und ICQ etc. über Transports erreichen oder ICQ etc. parallel im Client einrichten möchten. Positiv an den Transports ist, dass man (normalerweise) nur noch einen Account benötigt, die Verbindung zu anderen Accounts wie ICQ oder MSN erledigt dann der Jabber Server automatisch, nachdem man dies einmal eingestellt hat. Wie bereits beschrieben bieten dies jedoch nicht alle Jabber-Server bzw. Clients an. Falls du auf dieses Feature verzichtest, solltest du dir auch einmal den Client (Instant Messenger) "Pidgin" anschauen -> auf der folgenden Seite findest du eine Liste mit den unterstützten Protokollen und viele weitere Tipps zur Konfiguration, so kann man z.B. Twitter, Identi.ca oder auch Skype in Pidgin einbinden. -> wiki.ubuntuusers.de/pidgin


2.) Account anlegen

Um einen Account auf einem Server anzulegen, braucht man meistens nur den soeben erwähnten Client. Dann musst du dir einen Benutzernamen und eine Domain auf dem Server aussuchen, wobei die Domain meist vorgegeben ist. Die Kombination aus Benutzernamen und Domain wird dann deine persönliche Jabber ID (JID), mit der dich andere im Netzwerk anschreiben können. Aufgebaut ist eine JID ähnlich einer E-Mail Adresse, beispielsweise "voku@jabber.ccc.de". Eine gute Anleitung findet man z.B. hier -> www.ubuntu-jabber.de/Konto-erstellen


3.) Account nutzen

Natürlich kann man auch andere Anbieter nutzen, welche Jabber-Dienste anbieten. Hier eine kleine Übersicht + Konfiguration.


GoogleTalk per Jabber:

Entweder man verwendet den Client von Google: GogleTalk (Windows XP oder höher erforderlich) oder einfach einen alternativen Client. (z.B.: Username@gmail.com)

  • Benutzer: Username
  • Domain: gmail.com bzw. googlemail.com
  • Jabber ID: Username@gmail.de
  • Passwort: "dein normales Google-Passwort"
  • Port: 5222 (Standard - muss ggf. nicht angegeben werden)


GMX per Jabber:

Wie bereits erwähnt bietet GMX, Transports (Gateways) in folgende Netze an z.B.: ICQ, Aim, MSN, Yahoo dies muss jedoch auch die Client-Software mitmachen.

Auch hier kann man wieder den hauseigenen Messenger nutzen: GMX-Messenger (Windows XP oder höher erforderlich) "einfach" installieren und loslegen, für andere Clients: (z.B.: Username@gmx.de)

  • Benutzer: Username
  • Domain: gmx.de bzw. gmx.net
  • Jabber ID: Username@gmx.de
  • Passwort: "dein normales GMX-Passwort"
  • Verbindungsserver: xmpp-gmx.gmx.net
  • Port: 5222 (Standard - muss ggf. nicht angegeben werden)


Web.de per Jabber:

Und auch hier kann man einen Windows-Client direkt von Web.de nutzen: WEB.DE-Messenger (Windows XP oder höher erforderlich) oder einen anderen Client nutzen. (z.B.: Username@web.de)

  • Benutzer: Username
  • Domain: web.de
  • Jabber ID: Username@web.de
  • Passwort: "dein normales Web.de-Passwort"
  • Verbindungsserver: xmpp-webde.gmx.net
  • Port: 5222 (Standard - muss ggf. nicht angegeben werden)


studiVZ & meinVZ per Jabber:

Der sogenannte "Plauderkasten" kann nun auch per Jabber direkt vom Desktop genutzt werden. :-) Aber wie gesagt, nicht zu anderen Jabber-Servern. -> developer.studivz.net/2010/06/30/xmpp-chat-beta/ (z.B.: test@test.de)

  • Benutzer: test\40test.de
  • Domain: vz.net
  • Jabber ID: test\40test.de@vz.net
  • Passwort: "dein normales vz-Passwort"
  • Verbindungsserver: jabber.vz.net
  • Port: 5222 (Standard - muss ggf. nicht angegeben werden)


schülerVZ per Jabber:

Der sogenannte "Plauderkasten" kann nun auch per Jabber direkt vom Desktop genutzt werden. :-) Aber wie gesagt, nicht zu anderen Jabber-Servern. -> developer.studivz.net/2010/06/30/xmpp-chat-beta/ (z.B.: test@test.de)

  • Benutzer: test\40test.de
  • Domain: schuelervz.net
  • Jabber ID: test\40test.de@schuelervz.net
  • Passwort: "dein normales vz-Passwort"
  • Verbindungsserver: jabber.schuelervz.net
  • Port: 5222 (Standard - muss ggf. nicht angegeben werden)


Facebook per Jabber:

Der "Facebook-Chat" kann ebenfalls per Jabber direkt vom Desktop genutzt werden, aber vorher muss man sich einen Nutzernamen aussuchen http://www.facebook.com/username/ (z.B.: lars.moelleken)

  • Benutzer: lars.moelleken
  • Domain: chat.facebook.com
  • Jabber ID: lars.moelleken@chat.facebook.com
  • Passwort: "dein normales facebook-Passwort"
  • Port: 5222 (Standard - muss ggf. nicht angegeben werden)


4.) Fertig

Chatten und hinzufügen von Kontakten funktioniert wie man dies bei ICQ etc. gewohnt ist, mit dem kleinen Unterschied, dass man die Nutzer Jabber IDs benutzt, also nutzer@server. An dieser Stelle möchte ich noch einmal darauf hinweisen, dass Facebook & VZ-Netzwerk einen geschlossenen Jabber-Dienst anbieten, so dass man nicht zu anderen Jabber-Servern kommunizieren kann.

Ähnliche Blog-Einträge

19. Januar 2011

Nicht dass ich jetzt gerade auf Windows-Bashing aus bin, aber es gibt Dinge, da unterscheiden sich die Systeme doch sehr stark.

Ich habe neulich meine komplette Hardware ausgetauscht. Von Intel auf AMD, von 2 auf 4 Kerne, neues Motherboard (von anderem Hersteller), neue Grafikkarte (sicherheitshalber mit gleicher Chipsatzfirma) usw. Sprich: ich habe einen neuen Rechner gekauft und die alte Platte reingesteckt.

Festplatte

Bild: CC-BY husseinabdallah

Was ist passiert, als ich die Kiste angeschaltet habe? – Richtig: sie ist ohne Probleme hochgefahren.

Was hätte mich da unter Windows erwartet? Im besten Fall: ein Aktivierungsfenster. Wahrscheinlicher ist allerdings (aus eigener Erfahrung), dass man das Gerät komplett neu aufsetzten kann, da sich alles geändert hat, allein eine andere Platten-Controller-ID bringt alles zum zusammenstürzen.

Und da demnächst der neue Rechner auf den neuen Platten mit komplett neuem 64bit-Linux aufgesetzt wird, mach ich mir nun auch keinen Kopf um diese “wir schieben das OS auf eine andere Platte”-Geschichte…

Nachtrag: Es ist schön zu hören, das Microsoft mit Win7 nachgebessert hat, ich habe meine Erfahrungen unter XP und Win2000 gemacht.

Das Merge Window ist wieder geschlossen, die Entwicklung einer neuen Kernelversion nimmt ihren gewohnten Lauf - Zeit für einen ersten Blick.

Linux Kernel 2.6.38-rc1, Darstellung mit gitgIn einem der ersten Merges - Nummer fünf um genau zu sein - finden sich Änderungen für den Scheduler, darunter auch die von Torvalds gelobte Einführung der automatischen Task-Gruppen (Der November im Kernelrückblick - Neue Wege für das Scheduling, freiesMagazin 12/2010), von denen sich die Entwickler eine erheblich verbesserte Reaktionszeit von Desktop-Systemen verspricht (Commit, Merge ). Torvalds bezeichnete es nicht gerade als Wundermittel, aber als eine technische Spielerei, die funktioniert und insbesondere Nutzer mehrerer Terminals zufriedenstellt.

Neben dem in 2.6.37 zum größten Teil beseitigten Big Kernel Lock gibt es auch noch andere globale Locking-Mechanismen, die mehr als nur den wirklich benötigten Zweig für andere Prozesse sperren, zum Beispiel dcache_lock. Dieser wird unter anderem von vfs, einer Abstraktionsschicht für Dateisysteme, genutzt. Eine ganze Reihe an Patches aus der Feder von Nick Piggin soll dies nun entschärfen und nebenbei eine effizientere Abarbeitung bei Dateisystem-Operationen bewirken, sodass insgesamt eine Leistungssteigerung spürbar sein sollte.

Daneben wurden auch wieder viele Treiber-Patches aufgenommen, die insgesamt etwa die Hälfte der gesamten Änderungen ausmachen. Mit dabei sind Updates der Direct Rendering Infrastructure sowie Unterstützung für AMDs Fusion-Plattform, bei der CPU, Grafikchip und Videobeschleuniger auf einem Chip vereint sind. Außerdem gibt es nun Unterstützung für Nvidias Fermi-Grafikbescheunigung.

Quelle: Linux Kernel Mailing List

 

Um Unity, die neue Desktop-Umgebung ab 11.04 Natty Narwhal, auf seiner bestehenden Ubuntu Version zu testen, muss man lediglich Ubuntu Netbook-Edition nebenher installieren. Dies lässt sich einfach durch ein

sudo apt-get install ubuntu-netbook

bewerkstelligt werden.

Am Login-Screen gibt es auf der unteren leiste eine Liste. In dieser „Ubuntu Netbook Edition“ auswählen und einloggen. Nun kann man Unity testen und gleichzeitig bei bedarf auch wieder zu GNOME wechseln.


Tagged: Maverick, ubuntuusers, Unity

Alles schaut im Moment auf Canonical und was mit Unity passiert, aber von GNOME 3 hört man im Gegensatz dazu relativ wenig. Immerhin gibt es jetzt eine offizielle Website für den neuen GNOME-Desktop. Ich muss sagen, das macht wirklich Lust auf mehr, wenn ich mir so die Screenshots ansehe, die auf der Website zu finden sind.

Unity habe ich mir in einem sehr frühen Stadium in einer Virtualbox mal angeschaut und war bisher noch nicht wirklich davon angetan. Ausprobieren kann man GNOME 3, das sich auch noch in der Entwicklung befindet, unter Ubuntu derzeit über ein PPA auf Launchpad und ich spiele mit dem Gedanken das wirklich mal zu tun.

Da ich Probleme, die dadurch entstehen können, nicht abschätzen kann verlinke ich dieses hier mal nicht. Vielleicht installiere ich es ja mal am Notebook und berichte dann darüber. Dort hätte ich ein bisschen weniger Arbeit beim Neuinstallieren als am Desktop.

Live-Images zum ausprobieren sollen wohl bald mal veröffentlicht werden, fertig wird GNOME 3 allerdings nicht vor April, wie man hier nachlesen kann.

Vom Screenshots gucken gefällt mir GNOME 3 bisher wesentlich besser als Unity. Wie schaut es bei euch aus?

Vor wenigen Tagen hat das W3C ein Logo für den kommenden Standard HTML5 vorgestellt. Das Logo steht unter der Creative Commons Lizenz Namensnennung und kann von jedem verwendet werden, der zeitgemäße Webstandards wie CSS, SVG oder WOFF in seinen Webseiten anwendet. Die Lizenz erlaubt es logischerweise das Logo auch den eigenen Bedürfnissen anzupassen. Als weitere Maßnahme gibt es TShirts mit dem Logo und dem Spruch “I’ve seen the Future, it’s in my Browser”. Mich erinnert das Ganze an Superhelden und euch schon Erfahrungen mit HTML 5 gesammelt?

Wie der Mail des Debian-Entwicklers Neil McGovern zu entnehmen ist, wird Squeeze (voraussichtlich) am ersten Februar-Wochenende 5./6. Februar freigegeben. Aus dem Debianinstaller wurde alle gefunden kritschen Fehler beseitigt. Das Release würde sich nur dann verschieben, wennein Showstopper-Bug gefunden würde. Das wollen wir mal nicht hoffen ;)

Wer sehen möchte, was neu in Squeeze ist, lege ich die NewInSqueeze Seite ans Herz. Diese ist aber noch nicht fertig gestellt und wird natürlich von den Entwicklern vervollständigt.


18. Januar 2011

Durch die 2D-Version der künftigen Ubuntu-Oberfläche landet nun erstmals auch QT auf den Installations-CDs des Standard-Ubuntus, welches bislang mit reinem Gnome werkelte. Doch „Unitiy“ könnte nicht das einzige Nicht-Gnome-Projekt bleiben, wenn es nach dem Willen des Ubuntu-Chefs Shuttleworth geht. Die Tage scheinen gezählt, wo man Ubuntu guten Gewissens eine „Gnome-Distribution“ nennen konnte. Doch führt das alles auch zu einer Annäherung von KDE und Gnome?

Dass Ubuntu schon von Anfang an äußerst innovativ agierte und spielend mit Gewohnheiten brach, ist kein Geheimnis. Dachten Einige schon, die linksbündigen Fensterknöpfe wären die Spitze des Erträglichen, schwenkte Canonical kurz darauf in Richtung eines ganz eigenen Desktops – weg von der Oberfläche Gnomes – um. Nun kommt auch noch die Ankündigung, sich künftig QT-Programme im Standard-Ubuntu-Portfolio vorstellen zu können, verbunden mit dem Aufruf an QT-Entwickler, Canonical zuzuarbeiten, um QT-Technologie in Ubuntu integrieren zu können. Integriert in die weiterhin als Basis dienende Gnome-Umgebung, wohlgemerkt. Vom ehemals gerne als Aprilscherz genutzten „Ubuntu steigt auf KDE um“, ist man somit in Zukunft möglicherweise tatsächlich nicht mehr weit entfernt.

In den Überlegungen Shuttleworths zeigt sich wieder einmal, dass sich Ubuntu immer weiter vom klassischen Konzept einer Linuxdistribution, der Auswahl und dem Zusammenstellen vorhandener Projekte, entfernt und ein „eigenes Ding“ dreht. Unity statt Gnome-Shell – und nun auch noch das „beste aus beiden Welten“. Dass andere Distributionen einmal die Unity-Oberfläche übernehmen werden, liegt zwar im Bereich des Möglichen, doch KDE wird kaum sein Plasma für Unity in den Wind schießen, genauso wenig wie Gnome das bald vielleicht primär mit QT entwickelte Unity als Shell-Ersatz übernehmen wird.

Gnome ist für Ubuntu Mittel zum Zweck, nicht die Antwort auf alle Fragen. Dass sich Canonical nicht gleich komplett auf KDE stützt, obwohl es technische Vorteile bietet, dürfte an der Ausgereiftheit und Verlässlichkeit der Gnome-Software auch für den Unternehmenseinsatz liegen. Denn bei aller technischer Avantgarde neigt das KDE-Projekt aktuell dazu, sich zu verzetteln. Wäre dies anders, und würde KDE universeller einsetzbar sein (z.B. auch mit der „falschen“ Graphikkarte) – es könnte spekuliert werden, ob Ubuntu sich nicht schon längst von Gnome als Hauptdesktop verabschiedet hätte.

Ubuntu könnte damit die erste Distribution werden, die KDE/QT- und Gnome/GTK-Programme wirklich vereint und vor allem in sich konsistent unter dem eigenen Desktop „Unity“ für den Anwender zur Verfügung stellt. Denn bisher legten sich Distributionen stets auf eine Oberfläche fest – oder gar nicht. Damit könnte Ubuntu noch ein Stückchen weiter an die Bedürfnisse der Nutzer rücken, die bislang von sich aus trotz unterschiedlicher Bedienphilosophien, optischer Unterschiede und gar völliger Gegensätzlichkeiten KDE-Programme unter Gnome nutzten oder umgekehrt. Ubuntu könnte dadurch quasi zur Über-Distribution werden, die die gesamte Linuxprogrammwelt unter einer Schnittstelle bündelt. Da Ubuntu inzwischen sowieso seine eigene Optik entwickelt, die nicht mehr viel mit Original-Gnome gemein hat, fiele das umso leichter.

Eine erfolgreiche Umsetzung wäre Canonical durchaus zuzutrauen, denn dass Canonical etwas von Design und Nutzerfreundlichkeit versteht, hat der Erfolg der vergangenen Jahre gezeigt. Zwar versuchten in der Vergangenheit sowohl SuSE Linux (via Gtk-Qt-Engine) als auch Red Hat (via identischer „Bluecurve“-Themes), dem Nutzer die bequeme Bedienbarkeit auch von Programmen des jeweils anderen Desktops zu ermöglichen, beließen es ansonsten aber bei der Fokussierung auf eine einzelne Desktop-Umgebung. Der Anwender nahm KDE- oder Gnome-Programme dadurch zwar im gleichen Gewand wahr, arbeitete jedoch weiterhin entweder unter KDE oder Gnome – und vor allem an der Bedienbarkeit blieben die Unterschiede weiterhin spürbar. Inzwischen findet man diese rein optischen Vereinheitlichungen nur noch bei Open Suse, bei Fedora werden keine Schritte zur verbesserten gemeinsamen Nutzung von unterschiedlichen Desktopumgebungsbestandteilen mehr unternommen.

Der nächste große Knall wäre wohl, wenn Canonical die Unterteilung in Ubuntu, Kubuntu, Xubuntu etc. aufgäbe. Vorstellbar wäre es, denn wozu noch desktopspezifische Distrubtionsvarianten anbieten, wenn die Haupteigenentwicklung doch alle Komponenten ohnehin vereinen könnte? Unter betrieblichen Gesichtspunkten wäre dies der nächste logische Schritt. Doch dies alles ist natürlich reine Phantasie. Schließlich würde Ubuntu auch nie den Gnome-Desktop ganz aufgeben … nicht wahr?

1. Wine installieren (via PPA)

sudo add-apt-repository ppa:ubuntu-wine/ppa
sudo apt-get update
sudo apt-get install wine1.3

2. Wine Konfigurieren

Anwendungen / Wine / Konfiguriere Wine . Dann beim Reiter „Anwendungen“ unter Windows-Version „Windows XP“ auswählen.

3. Installation von Office starten

Microsoft Office CD ins Laufwerk einlegen und die setup.exe mit Wine starten. Dies geschieht entweder durch einen Doppelklick oder durch Rechtsklick „Mit Wine Windows-Programmstarter öffnen“.

4.PowerPoint-Problem fixen

Die Installation sollte ohne Probleme durchlaufen. Alle Programme sollten auch einwandfrei funktionieren, Microsoft Powerpoint ausgenommen. Um PowerPoint starten zu können, geht ihr auf: Anwendungen/Wine/Konfiguriere Wine. Beim Reiter Libraries unter „neue Überschreibung für“ riched20.dll auswählen und hinzufügen. Nun ist die .dll aufgenommen. Nun nur noch die riched20.dll markieren und rechts auf bearbeiten klicken. Nun sollte man  “native (Windows)“ auswählen. Anwenden und mit Ok bestätigen.

Microsoft Office 2007 ist nun voll unter Ubuntu einsetzbar.

Frage: Kommt ihr bei all euren Aufgaben mit OpenOffice / LibreOffice zurecht ? Oder müsst ihr auch hin und wieder einmal auf Microsofts Office zurückgreifen ?

33 Kommentare | Kommentar schreiben | Microsoft Office 2007 in Ubuntu, Linux installieren (Wine)

Für Open Source Projekte gibt es es ja eine ganze Reihe interessanter Dienste. Einer dieser Dienste ist http://cia.vc/. Dieser zeigt die Aktivität von Open Source Projekten an. Ganz besonders interessant ist dieser Dienst allerdings weil er IRC Bots anbietet, welche im IRC Channel des Projektes bei jedem Commit eine Meldung ausgeben. Das erleichtert die Entwicklung im Team (z.B. bei Invertika) da man sofort sieht was andere Teammitglieder gemacht haben.

Nur gab es vor kurzem ein kleines Problem mit Projekten welche auf Google Code gehostet sind. Dort funktionierte diese Art der Benachrichtigung nicht mehr. Dies lag an einem neuen Feature welches die Seite bot. Nun muss man für Google Code eine Post Commit URL in den Projekteinstellungen (Administer -> Source) angeben. Diese lautet dabei http://cia.vc/deliver/simplejson/. Danach funktionierte wieder alles tadellos.

Weitere Informationen gibt es unter:
http://cia.vc/blog/2009/03/google-revisited/

Für Open Source Projekte gibt es es ja eine ganze Reihe interessanter Dienste. Einer dieser Dienste ist http://cia.vc/. Dieser zeigt die Aktivität von Open Source Projekten an. Ganz besonders interessant ist dieser Dienst allerdings weil er IRC Bots anbietet, welche im IRC Channel des Projektes bei jedem Commit eine Meldung ausgeben. Das erleichtert die Entwicklung im Team (z.B. bei Invertika) da man sofort sieht was andere Teammitglieder gemacht haben.

Nur gab es vor kurzem ein kleines Problem mit Projekten welche auf Google Code gehostet sind. Dort funktionierte diese Art der Benachrichtigung nicht mehr. Dies lag an einem neuen Feature welches die Seite bot. Nun muss man für Google Code eine Post Commit URL in den Projekteinstellungen (Administer -> Source) angeben. Diese lautet dabei http://cia.vc/deliver/simplejson/. Danach funktionierte wieder alles tadellos.

Weitere Informationen gibt es unter:
http://cia.vc/blog/2009/03/google-revisited/