ubuntuusers.de

23. März 2011

Von den bisher vorgestellten Themen in LPIC 201 ist das folgende eines der interessanteren: Backup und Archivierung!
Wie in den Artikeln vorher schon erwähnt, ersetzt RAID nicht wirklich ein Backup und LVM schon gar nicht! Es muss also trotzdem noch eine Lösung her – und um die kümmern wir uns jetzt!

Arten

Bevor man überhaupt mit einem Backup beginnt, muss man sich überlegen, was, wie und wie oft man etwas sichern möchte. Das was ist dabei relativ schnell gefunden, zum Beispiel das /home-Verzeichnis. Auch das wie oft ist ein kleineres Problem; jeden Abend sollte reichen.
Doch nun muss man sich überlegen wie! Denn wenn ich jedes mal alle Daten von neuem Kopiere und allen alten Backups behalte, so leide ich schnell an Platzmangel. Deshalb muss man zuerst wissen, wie alles gesichert werden kann:

Full

Zu aller erst muss man ein Full-Backup anlegen. Dabei werden alle Daten welche im zu sichernden Ordner /home sind, gesichert.

Inkrementell

Inkrementell empfiehlt es sich, wenn man wenige Daten haben, welche sich immer ändern. Denn beim inkrementellen Backup werden nicht alle Daten, sondern nur die gesichert, welche seit dem letzten Backup verändert wurden.

Differenziell

Differenziell ist ähnlich wie inkrementell, jedoch werden hier immer die gesicherten Daten seit dem letzten Full-Backup gesichert

Zeitplan

Nun kann man sich sagen: “Ich mach immer inkrementell, da brauch ich am wenigsten Platz”! Dazu muss ich sagen, das stimmt durchaus, jedoch ist es halt nicht die beste Lösung.
Gehen wir von der Situation aus, ich habe vor einem Monat ein Full-Backup angelegt und seither täglich inkrementelle Backups. Fällt mein System aus, so muss ich zuerst das Full und dann 30 inkrementelle Backups zurückspielen. Nicht nur aufwendig, sondern auch zeitraubend!

Ein gutes Mittelmass wäre also zum Beispiel einmal im Monat ein Full-Backup, einmal pro Woche ein differenzielles und dann Täglich ein Inkrementelles. Dies natürlich nur auf einem System mit sehr wertvollen Daten wie einem Server auf dem täglich gearbeitet wird, ansonsten könnte man die inkrementellen Backups weglassen.
Im schlimmsten Fall, also ein Ausfall ein Tag vor dem neuen Full-Backup, so müsste man nur das alte Full-Backup dann das differenzielle und bis zu 5 inkrementelle Backups zurückspielen. Klingt aufwendig – ist es auch! Aber besser als 30 inkrementelle Backups ist es garantiert…

Housekeeping

Um Speicherplatz zu sparen, sollte man auch an ein gut durchdachtes Housekeeping denken. Dabei wird festgelegt, welche Art von Backup wie lange behalten und wann gelöscht wird.
Um auf obiges Beispiel zurück zu kommen, so sollte man ein Housekeeping wie das folgende in Betracht ziehen:

  • die letzten beiden Full-Backups
  • die differenziellen Backups aus dem letzten und aktuellen Monat
  • die inkrementellen Backups der aktuellen Woche

Somit ist man im schlimmsten Fall in der Lage bis zu zwei Monate zurück zu gehen. In der Praxis wird sich aber zeigen, meist sind Restores von über einer Woche sehr sehr selten, also könnte man das Housekeeping noch optimieren.

Speicherort

Ganz entscheidend für die langfristige Verfügbarkeit und auch die Geschwindigkeit beim Sichern und Restoren ist das Medium, auf welches gesichert wird.
Die meisten werden dabei auf einfache Festplatten zurückgreifen. Sehr wenige noch auf DVDs und die allerwenigsten im privaten Bereich gar auf Tapes. Flash-Disks lasse ich hier auf Grund des hohen Preises mal aussen vor.
Doch muss man wissen, dass eine Festplatte sehr anfällig für Fehler ist. DVDs sind leider ein bisschen Begrenzt, was die Kapazität angeht und Tapes für eine Privatperson sehr teuer.
Auch hier gibt es wieder ein Abwägen des idealen Mittelmasses!

Software

Und auch bei der passenden Software wird es nicht einfacher! Die Qual der Wahl bleibt einem auch hier nicht erspart. LPIC beschränkt diese aber klar auf Amanda, Bacula und BackupPC, sowie die üblichen Verdächtigen wie tar, dd, rsync und mehr.

tar

tar ist ein Stück Softwar, das bestimmt schon mal jeder benutzt hat. Mir geht es auf jeden Fall so; jedes mal wenn ich es benütze, muss ich wieder nach den passenden Parametern zum (ent-)packen studieren.
Alles was tar macht, ist alle Daten mitsamt deren Zusatzinformationen wie Owner, Rechte o.ä. in ein Archiv zu packen und, falls gewünscht, noch zu komprimieren:

tar -cfv backup.tar Verzeichnis1 Verzeichnis2 Datei1 Verzeichnis3

Die Komprimierung aktiviert man über den Parameter z:

tar -cfvz backup.tar.gz Verzeichnis1 Verzeichnis2 Datei1 Verzeichnis3

Zum Entpacken dann:

tar -xfv backup.tar

Oder auch wieder mit Komprimierung:

tar -xfvz backup.tar.gz

Und auch in tar steckt noch ein bisschen Logik. So kann über den Parameter -u verlangt werden, dass falls eine ältere Version innerhalb des Archives schon besteht, diese durch die neue ersetzt wird. Somit hat man auch ein sauberes Backup mit den neusten Daten und nicht noch alle veralteten Version der Datei mit drauf.

cpio

Auch Bestandteil von LPIC ist das Tool cpio. Doch grosse Neuerungen zu tar bringt es nicht, also ist es hier auch nicht erwähnenswert!

Wegkopieren

Wenn man nun sein Archiv erstellt hat, muss das natürlich auch noch an einen anderen Ort wie zum Beispiel ein Fileserver oder Tapelaufwerk.
Für ersteres kann man ganz gut rsync verwenden:

rsync -a backup.tar.gz fileserver:/backup/master/

Image-Kopie

Eine Image-Kopie gibt es, wenn man von seiner Maschine ein Image erstellt. Dies bedeutet eine 1:1 Kopie seiner Festplatte, jedoch nicht auf Datei, sondern auf Byte-Ebene.
Somit hat man nicht nur alle Dateien, sondern man hat die ganze Festplatte. Sollte die Maschine also im schlimmsten Fall mal formatiert werden, so sind nicht nur Daten sondern auch das System selbst verloren. Bei einem Server ist dies weniger ärgerlich, da ist neu aufsetzen eh die bessere Lösung. Bei einem Client aber könnte man hier ein Image zurückspielen. Dabei werden dann nicht nur die Daten sondern auch das ganze Dateisystem mit Partitionstabelle und MBR zurückgeschrieben.
Erstellen kann man dies zum Beispiel mit dd. Jedoch sollte man beachten, das Image wird genau so gross, wie die Festplatte. Auch wenn diese nur zu 10% mit Daten beschrieben ist!

sudo dd if=/dev/sda of=/backup/backup.img

Weitere Lösungen

LPIC verlangt, dass der Kandidat weiss, dass es noch andere Lösungen wie Amanda, Bacula oder BackupPC gibt. Diese spezifisch einzurichten wird dabei bewusst aussen vor gelassen. Also wollen wir auch nur ein paar Worte dazu verlieren.

Natürlich sind tar und cpio keine Lösungen für ein Backup von mehr als einem kleinen PC. Der Aufwand zu jedem Server und Client in einem 1000 Personen Unternehmen zu gehen, da ein tar vom /home-Verzeichnis zu erstellen und an den Backup-Server zu schicken wäre kaum auszumalen!

Also gibt es Softwarelösungen wie zum Beispiel Bacula. Dieses basiert auf einem Kontrollserver, welcher programmiert und eingestellt wurde und dann über seine Agents auf den jeweiligen Maschinen im passenden Moment das Backup startet. Weiter leitet der Kontrollserver, welcher von Bacula übrigens liebevoll “Director” getauft wurde, die Daten von den Agents an den Storage-Deamon auf z.B. dem Tapelaufwerk weiter.
Nebenbei bieten solche Lösungen auch noch weitere Features wie zum Beispiel Wiederherstellung-DVDs.


Das könnte dich auch interessieren:

  1. LVM für Linux einrichten
  2. Software RAID für Linux
  3. Was bedeutet Load unter Linux?

Heute zeige ich nichts so wahnsinnig neues oder verwunderliches. Aber um das ganze möglichst vollständig zu halten muss eben auch so etwas in diese Serie.

Mit welchen Tools wird gesurft, womit die “normalen” Office Arbeiten erledigt? Ich denke da bin ich absolut standardmäßig unterwegs. Wobei das genere

ll so eine Sache ist, da nicht jeder auf der Arbeit mit Linux arbeiten darf(!).

Internet Browser

Browser Nummer 1 ist Firefox. Von ihm komme ich nicht so recht ab, da er die – hier beschriebene – Erweiterung AutoAuth als einziger anbietet, die innerhalb eines Corporate Network definitiv interessant ist. Ansonsten habe ich ProxySwitch (zwischen mehreren Proxies, bzw. keinem per Klick umschalten) und AdBlock Plus (sollte wohl jeder kennen) installiert. Also recht langweilig.

Mail

Naja, durch mein mittlerweile recht bekanntes Email-MIgrationsprojekt habe ich mittlerweile doch so einige zu Thunderbird bringen können. Natürlich arbeite ich auch selbst damit. Für die Migration ist Thunderbird als Fatclient eine der Hauptbestandteile.

Thunderbird kann sich recht gut in einen Gnome Desktop einbinden. Damit meine optisch als auch funktional. Beispielsweise funktioniert “senden an …” aus dem Kontextmenü wenn man Thunderbird bei den bevorzugten Programmen als Emailprogramm hinterlegt.

Mit dieser Einstellung kann man einfach eine Datei nehmen und per rechte Maustaste “senden an…” mit Thunderbird versenden. Aber Achtung! Das ganze funktioniert nicht mit Dateien von Netzwerklaufwerken (bspw. SFTP über Nautilus). Auch drag&drop funktioniert nicht aus solchen Laufwerken.

Addons

  • Close Tab on ESC – Damit kann man ein TAB mit ESC schließen
  • Lightning – Als Kalender / Aufgaben Addon (Migrationsprojekt)
  • Provider für Google Kalender – Den privaten Google Kalender auch anzeigen
  • XNote – Damit kann man nette Notizen an eine Mail “ankleben”

Office

Tja, als Officepaket kommt mittlerweile LibreOffice zum zug. Ich denke da braucht man auch nicht viel zu zu sagen. Da ich nicht viel mit Office Dokumenten mache komme ich gut damit klar. Anders mag es aussehen wenn man sehr viel damit macht oder machen muss, dann wird die Frage der kompatibilität zu MS Office eine große Rolle spielen. Bei mir nicht so ;-)

Editor

Zum editieren gibt es für mich zur Zeit zwei Programme. Zuerst einmal natürlich vi / vim. Der ist standard für Admintätigkeiten auf entfernten Maschinen oder auch auf meiner lokalen Workstation.

Danach kommt seit kürzerem Scribes.

Scribes wurde vor einiger Zeit auch auf dem Planeten beschrieben. Er ist wahnsinnig hilfreich bei sehr vielen Scriptsprachen. Normalerweise bin ich kein Freund von Tools die einem alles vorgeben und alles besser wissen, aber Scribes tut das wirklich intelligent. Einfach mal ausprobieren.

 

todo

In diesem Beitrag möchte ich euch verschiedene Programme und Tools zum Managen von Aufgaben und Terminen unter Ubuntu vorstellen. Vorgestellte Programme in diesem Beitrag: wunderlist, tasque, Getting Things Gnome und Tasks.

1. Wunderlist

Wunderlist ein ein webbasierendes Aufgabenmanagementtool. Es gibt auch einen Desktop-Client für das iPhone, iPad, Android, Windows und MAC OSX. Die Windows-Version funktioniert auch unter Ubuntu mit Wine einwandfrei. Die Weboberfläche ist sehr übersichtlich gestaltet und man wird nach der Anmeldung durch ein kleines Tutorial geführt, welches die wichtigsten Funktionen an praktischen Beispielen erklärt. Wunderlist unterstützt Kategorien und Aufgaben können mithilfe eines Sterns priorisiert werden. Einfach, schick und keine überflüssigen Funktionen. Wunderlist. (weiterlesen…)

12 Kommentare | Kommentar schreiben | Aufgabenmanagement, ToDo-Listen unter Ubuntu

Florian Effenberger von The Document Foundation (TDF) hat in seinem Blog die Verfügbarkeit der Version 3.3.2 von LibreOffice bekannt gegeben.

LibreOffice Logo (TDF)

Die Document Foundation fördert die Entwicklung des Büro-Pakets, seitdem LibreOffice letztes Jahr als eigenständiges Projekt aus Oracles OpenOffice.org hervorging.

Bei Version 3.3.2 der freien Office-Suite handelt es sich um ein monatliches Bugfix-Release, in welchem ausschliesslich Fehler und Stabilitätsprobleme beseitigt wurden.

In der Linux-Distribution Ubuntu 11.04, welche im April dieses Jahres erscheinen wird, wird LibreOffice erstmals OpenOffice.org als standardmässig installierte Office-Suite ablösen.

Die Vorbereitungen für das nächste LibreOffice-Release laufen bereits auf Hochtouren. Geplant ist es für Mitte Mai 2011; LibreOffice 3.4 wird dann auch wieder neue Funktionen mitbringen.

Während die Document Foundation ihre Spendenaktion zur Gründung einer rechtlich anerkannten LibreOffice-Stiftung vor einem Monat bereits nach acht Tagen erfolgreich beenden konnte, kümmern sich die Verantwortlichen nun um die formellen Sachen.

Natürlich ist jede weitere programmiertechnische und finanzielle Unterstützung im Projekt nach wie vor herzlich willkommen. Auch Nicht-Programmierer sind dazu eingeladen, sich in einer beliebigen Form – sei es anhand von Mitarbeit am Design oder zum Beispiel mit Mund-zu-Mund-Propaganda – am Projekt zu beteiligen.

Nähere Informationen zu den Änderungen und Korrekturen können dem englischsprachigen ChangeLog entnommen werden.

LibreOffice 3.3.2 kann für GNU/Linux, Mac OS X und Windows auf der Seite des Projekts in zahlreichen Sprachen heruntergeladen werden.

Da die finale Version von Ubuntu 11.04 noch nicht erschienen ist und ich momentan noch Ubuntu 10.04 “Lucid Lynx” verwende, habe ich OpenOffice.org deinstalliert und das ppa-Repository von LibreOffice in die Paketquellen eingebunden.

Dies funktioniert bei mir bisher einwandfrei. Die Updates werden von den Entwicklern nach ein bis zwei Tagen im Repository eingepflegt und dann kann man LibreOffice ganz einfach – wie man sich das von anderen Linux-Programmen gewohnt ist – sozusagen per Knopfdruck auf den neuesten Stand bringen.

22. März 2011

Nach über einem Jahr Entwicklungszeit hat Mozilla die endgültige, finale Version von Firefox 4.0 freigegeben.

Der neue Browser bietet zahlreiche neue Funktionen, eine überarbeitete GUI und ist Mozilla zufolge 6 mal schneller als sein Vorgänger Firefox 3.6.

Mozilla Firefox

Zusammen mit der schnellen Javascript-Engine Jägermonkey soll Mozillas brandneue Rendering-Engine Gecko 2.0 in Firefox 4.0 einen rasanten Seitenaufbau ermöglichen.

Ausserdem wird WebM jetzt nativ als HTML5-Videocodec unterstützt. Der VP8-Videocodec WebM wurde von Google als Open Source freigegeben, nachdem der Suchmaschinenbetreiber den Hersteller des VP8-Codecs aufgekauft hatte.

Mit “Sync” hat Firefox jetzt auch ein Synchronisationstool mit an Bord, welches Lesezeichen und Passwörter auf Wunsch mit einem Server abgleicht. So hat man seine Bookmarks immer mit dabei, egal auf welchem Rechner man mit Firefox surft. Die Konkurrenz von Google und Opera hat ein solches Tool bereits seit längerem in ihre Browser integriert.

Mit WebGL ist es nun möglich, hardwarebeschleunigte 3D-Bilder direkt im Browser darzustellen, ohne dabei auf zusätzliche Plug-ins zurückgreifen zu müssen.

Desweiteren haben die Mozilla-Entwickler die Einstellungen um eine Datenschutz-Option erweitert. Wählt der Benutzer diese “do not track”-Option aus, werden Anbieter von Werbeeinblendungen über den do not track-Header informiert, dass der User kein Zurückverfolgen seines Surfverhaltens durch den Werbenden wünscht.

Mozilla Firefox 4.0 'do not track' option

Dies funktioniert jedoch nur, wenn der Werbende diese Option und damit auch die Privatsphäre des Firefox-Anwenders respektiert.

Der überarbeitete Add-On-Manager lässt den Benutzer seine Erweiterungen jetzt noch komfortabler verwalten.

Firefox 4.0 kann für Linux, Mac OS X und Windows auf der Projekt-Seite in über 80 verschiedenen Sprachen heruntergeladen werden.

Linux-Benutzer werden die finale Version von Firefox 4.0 – je nach Distribution – in den nächsten Tagen per automatischem Update aufgespielt bekommen.

Mozilla will zukünftig öfter neue Versionen von Firefox herausgeben. Firefox 5, 6 und 7 sollen noch in diesem Jahr erscheinen.

Weitere Links

Veröffentlichungsnotizen (Mozilla)
Übersicht zu den Features von Firefox 4.0 (Mozilla)

Heute werden wir mal eine Crossenwiklung in Darktable machen. Dieses Tutorial basiert auf der Anleitung im Darktable Handbuch. Aber wer schaut sich solche Sachen schon heutzutage an. ;)
Aber zuerst mal ein kleine Erklärung was Crossentwiklung eigentlich ist. Es wird sehr gut in Wikipedia beschrieben:

Als Crossentwicklung (auch Cross Processing, X-Pro) bezeichnet man die Umkehrentwicklung eines Farbnegativfilms oder umgekehrt die Negativentwicklung eines Farbpositivfilms.

Hierbei wird das Filmmaterial in seinem gegenteiligen Entwicklungsprozess, ein Farbnegativfilm beispielsweise statt im C-41 im E-6 Prozess oder einen Diapositivfilm beispielsweise statt im E-6 im C-41 Prozess entwickelt. Charakteristisch für gecrosste Filme sind knallige Farben, hoher Kontrast.

Normalerweise wird eine Crossentwiklung, in der Digitalen Bildbearbeitung, mit Hilfe von Farbkurven gemacht. Ich hatte das früher schon einmal gezeigt wie es in Gimp geht, da aber Darktabel dieses Werkzeug noch nicht hat, müssen wir uns anders helfen um den Effekt zu erreichen.

Die Werkzeuge welche wir brauchen um den Crosseffekt zu erzielen sind, Tonekurve, Kanalmixer und Splittoning. Zuerst wird im Video aber noch etwas die Belichtung des Fotos korrigiert. Als los geht es. Noch ein kleiner Tipp schaut euch das Video im Vollbild-Modus an.

Ihr findet das Video auch auf Vimeo als HD Video oder Ihr könnt es als webm (169) Video hier Downladen

Wie auch schon, beim Tutorial zuvor, habe ich das ganze auch als Presset für euch zum Download.

Cross (281)

Und hier noch zum Schluss das Gecrosste Foto.

Es gab eine Zeit, da hatte man unter Linux das Problem, dass es keinen vernünftigen Webbrowser gab. Es gab nur Netscape 4 in einer sehr wackeligen Linuxausführung, sonst nichts. Später kamen dann der Konqueror (der zunächst aber noch nicht wirklich gut Webseiten anzeigte) und die Mozilla-Suite (heute Seamonkey), außerdem noch Galeon, der für Gnome ebenfalls den Mozillaunterbau in einen Browser stopfte; auch Opera brachte eine Linuxversion heraus. Mit diesen vieren konnte man endlich auch unter Linux vernünftig ins Web.


noch ohne Firefox: Browser im KDE2-Panel vor 9 Jahren

Heute können sich Linuxnutzer über mangelnde Auswahl nicht mehr beklagen. Neben den schon genannten stehen auch noch Chrome, Chromium, Arora, Epiphany, Rekonq oder Midori bereit. Und natürlich Firefox. Letzterer ist es, der überall dominiert, kaum eine Distribution, die ihn nicht als Standard vorkonfiguriert. Auch das ist historisch bedingt, denn lange gab es auch zum Firefox keine echte Alternative (selbst reine KDE-Distributionen nahmen und nehmen Firefox als Vorauswahl). Das hat sich mit dem Auftauchen der Webkit-Engine geändert. Vor allem Google-Chrome wildert seitdem im Firefox-Umfeld, denn die wirklichen Innovationen findet man dort oder bei Opera.

Firefox hingegen erweckt den Eindruck, den Mitbewerbern nur noch hinterherzuprogrammieren; gerade Firefox 4 wird zudem für bisherige und fortgeschrittene Anwender immer unkomfortabler. Bei der Geschwindigkeit macht Firefox 4 wieder etwas Boden gut, bleibt aber nach wie vor ein schwergewichtiges, RAM-hungriges Programm. Da stellt man sich die Frage: Warum überhaupt noch Firefox nutzen? Aus Gewohnheit? Weil es “der Standard” und Mainstream ist?

Firefox wird allmählich zum “Internet Explorer der Linuxwelt”: optisch seit Firefox 4 sowieso, doch suchen manche inzwischen nach besseren Alternativen zum alles beherrschenden “Standardbrowser”, der einem mit jeder größeren Distribution quasi automatisch ins Haus flattert. Lubuntu hat Chromium als Standard voreingestellt, Knoppix wird offenbar auch darauf umsteigen und XFCE z.B. setzt auf Midori. Es wird spannend, ob sich dieser Trend fortsetzt, oder ob es Mozilla gelingt, wieder Boden auch bei den Linuxern gutzumachen.

PS: Die große Firefox-4.0-Rezension gibt es nebenan im Magazin: Firefox 4 – Willkommen im Chaos

Viele moderne Kameras haben mittlerweile einen GPS-Empfänger eingebaut. Damit lassen sich Standortinformationen in den Fotos hinterlegen. Für die private Verwendung, z. B. bei einer Vorstellung der Urlaubsfotos im Familienkreis, eine prima Sache, da man sich in geeigneten Programmen den genauen Standort der Aufnahme anzeigen lassen kann.

Wenn man aber seine Bilder ins Web (z. B. Webalben, Lokalisten, Facebook (wobei Facebook diese Daten lt. einem TV-Beitrag angeblich noch nicht speichert) usw.) hochläd und nicht möchte, dass jeder sehen, kann wo man sich aufgehalten hat bzw. die Aufnahme entstanden ist, muss man die Tags entfernen. Entweder durch das Ausschalten der Tagging-Funktion in der Kamera oder eben später sparat am PC. Auf meiner suche im Linux-Programmpool bin ich dabei auf das Programm „ExifTools“ aufmerksam geworden. Mit diesem Programm lassen sich schnell und einfach verschiedene Exif-Informationen hizufügen/bearbeiten/löschen. Im vorliegen Fall können alle Geo-Informationen folgendermaßen gelöscht werden:

exiftool -a -gps:all meinbild.jpg

Und für alle JPG-Bilder eines Verzeichnisses:

exiftool -a -gps:all *.jpg

Gefunden in den ExifTool FAQs


LVM ist eine andere Art von Festplatten Management, ähnlich einem RAID 0. Es bietet dabei, nicht wie ein normales RAID (1, 5, o.ä.) Redundanz, sondern dient nur dazu, eine weitere logische Ebene zwischen die Festplatten und das System oder die Daten zu bringen.
Der Vorteil dabei liegt auf der Hand. Sollte der Platzanspruch irgendwann mal steigen, so muss eine Platte nicht durch eine grössere Ersetzt und alle Daten umkopiert werden, sondern es reicht, eine weitere Platte dem LVM zu zufügen. somit bietet LVM, was übrigens für die Kurzform von Logical Volume Management steht, mehr Flexibilität.

Ursprünglich kommt das Konzept von LVM von IBM entwickelt für deren Baby: AIX.

Aufbau

Der Aufbau von, nennen wir es mal einer Speichermöglichkeit, ist in zwei Schichten gegliedert:

Zu unterst steht das Physical Volume wie /dev/sda, darauf kommt ein Dateisystem wie ext3.
Wird nun aber LVM verwendet, so ändert sich der Aufbau:

Es kommt auf das Physical Volume zuerst eine Volumegroup, also eine Art Speicherpool dazu und darauf die Logical Volumes, eine Art virtuelle Partition, welche dann mit dem Dateisystem formatiert wird.

Erzeugen

Nun legen wir ein LVM auf unsere Platte. Damit das klappt, säubern wir zuerst die alte Platte von der Partitionstabelle, und der passende Partitionstyp muss geschrieben werden:

dd if=/dev/zero of=/dev/sda bs=512 count=1
cfdisk /dev/sda

Nun erstellen wir ein neues Physical Volume:

pvcreate /dev/sda5

Mit pvdisplay sieht man auch gleich, was man angestellt hat:

pvdisplay

Nun können wir darauf eine Volume Group legen:

vgcreate vg1 /dev/sda6

Darauf wiederum kommt nun ein Logical Volume mit der Grösse von zum Beispiel 5GiB:

lvcreate -n lv1 -L 5120M vg1

Nun kann man auf den eben erstellten Device über /dev/vg1/lv1 zugreifen.
Damit da aber auch etwas drauf passt, muss man es zuerst noch formatieren mit einem passenden Dateisystem:

mkfs -t ext3 /dev/vg1/lv1

Und schlussendlich kann das ganze wie ein normales Dateisystem verwendet und eingehängt werden:

mount -t ext3 /dev/vg1/lv1 /data

Logical Volume vergrössern

Merkt man nun nachträglich, dass man noch mehr Platz benötigt, so kann das Logical Volume nachträglich vergrössert werden, indem diesem vom der Volume Group mehr Speicherplatz zugewiesen wird, z.B. über:

lvextend -L+2048M /dev/vg1/lv1

Nun muss man wieder die Hierarchie nach oben alles anpassen, also ist jetzt das Dateisystem dran:

umount /data
e2fsck -f /dev/vg1/lv1
resize2fs /dev/vg1/lv1
mount -t ext3 /dev/vg1/lv1 /data

Logical Volume verkleiner

Natürlich kann man mit lvreduce das ganze auch verkleinern, jedoch muss dabei zuerst dem Dateisystem etwas geklaut werden:

umount /data
e2fsck -f /dev/vg1/lv1
resize2fs /dev/vg1/lv1 2048M
lvreduce -L 2048M /dev/vg1/lv1
mount -t ext3 /dev/vg1/lv1 /data

Volume Group ändern

Doch was tun, wenn auf der VG kein Platz mehr vorhanden ist? Kein Problem! Einfach eine neu Disk rein, darauf ein neues Physical Volume, wie oben schon beschrieben, erstellen und dem VG zufügen:

pvcreate /dev/sda7
vgextend vg1 /dev/sda7

Nun wieder die Schritte von oben zum Vergrössern des LV durchführen und man hat mehr Platz zur Verfügung.
Oder wenn man etwas verkleinern möchte, so kann ich dies natürlich auch gleich dem VG klauen:

vgreduce -a vg1

Oder ich schmeisse ein ganz bestimmtes Physical Volume aus der VG:

vgreduce vg1 /dev/sda7

Natürlich nur wenn ich mit folgendem Kommando keine Daten darauf finde:

pvdisplay -v /dev/sda7

LVM löschen

Will ich mein LVM wieder los werden, so kann ich auf folgenden Befehlssatz zurückgreifen:

vgchange -a n

Snapshot-Volume

Ganz interessant, besonders für sehr grosse Installation ist das Snapshot-Volume.
Wenn man sehr viele Daten hat, so kann zum Beispiel bei einem Backup das Problem auftreten, dass während dem Sichern das System geändert wird.
Wird also während dem Sichern ein neuer Benutzer angelegt, so könnte beispielsweise eine passwd- nicht mehr zur shadow-Datei passen… Ein Restore würde dadurch relativ aufwendig!
Also kann man mittels LVM den Zustand eines Systems als Snapshot auf einem weiteren Volume einfrieren und dann von da aus wegsichern, wodurch der Betrieb nicht gestört wird!

Ein Snapshot-Volume wird auf der Ebene der LV erstellt, alles darunter muss also gegeben sein. Es wird einzig noch eine Option mehr gesetzt:

lvcreate --snapshop --size 100M --name lvs1 /dev/vg1/lv1

Dieses Volume unter /dev/vg1/lvs1 kann nun auch gemounted und dann von da aus gesichert werden.
Gut zu wissen hierbei, es wird keine 1:1 Kopie angelegt, ein Snapshot ist also keine direkte Kopie. Trotzdem sollte drauf geachtet werden, dass genügend Platz vorhanden ist.


Das könnte dich auch interessieren:

  1. Software RAID für Linux
  2. ReiserFS und XFS
  3. Was bedeutet Load unter Linux?

JDownloader ist ein plattformübergreifendes Open-Source Download-Programm. Dank Java ist das App unter Linux, Windows und MAC OSX lauffähig. JDownloader zeichnet sich durch seine vielen Features und Einstellungen aus.

  • Eine sehr große Unterstützung für ca 110 OCH (One Click Hoster) wie z.B. MegaUpload, Rapidshare und co ist gegeben.
  • Automatisches Erkennen von Spam-Captchas. Dies hat zur Folge, dass man nicht immer wieder die Sicherheitscodes eintippen muss.
  • Reconnect des Routers, um eine neue IP zu erhalten. Der JDownloader stellt hier eine riesige Datenbank von Routerscripts bereit, um das Neuverbinden zu automatisieren.
  • Unterstützung von sogenannten Downloadcontainern: CCF, RSDF und DLC.
  • Multimedia-Support. JDownloader kann Videos von Multimedia-Portalen wie Youtube, Myvideo und co downloaden. (weiterlesen…)
13 Kommentare | Kommentar schreiben | JDownloader – Ubuntu Download-Manager mit One-Click-Hoster Support

21. März 2011

Ich hatte ja gestern morgen, einen Vortrag auf den Chemnitzer Linux-Tagen, einen Teil des Inhalts habe ich ja bereits in einem Blogpost verraten.

Die entsprechenden Folien zum Vortrag habe ich nun verfügbar gemacht, natürlich auf meine Art, die Slideshow ist wieder mit Inkscape und JessyInk gemacht, ist also SVG und kann im Browser angeschaut werden. Beim herunterladen, habt ihr natürlich die bearbeitbaren “Quellen”. Lizenz ist Creative Commons BY-SA 3.0 und an dieser Stelle muss ich Nuno Pinheiro vom Oxygen-Project nennen, da ich einige Icons von ihm verwendet habe.

Für den Inkscape-Workshop am Nachmittag gibt es natürlich keine Slideshow, das entsprechende Tutorial inklusive eines Screencast kann man aber hier finden. Die Soundqualität des Screencast ist leider nicht zu 100% aber man kann es trotzdem verstehen. Also viel Spaß beim nachmachen.

P.S. Hier hat übrigens, ein Teilnehmer sein Ergebnis des Workshops gepostet.

Man merkt beim Titel dieses Eintrags schon, dass ich noch kein Schlagwort für f.lux gefunden habe. Es ist eine Software, die je nach Tageszeit die Farbtemperatur des Monitors anpasst. Also: Tagsüber bleibt das Bild blau und hell, nachts wird der Bildschirm roter. Die Software gibt es für Windows, Mac und für Linux, wobei bei mir unter Ubuntu 10.04 nur die Kommandozeilenversion funktionierte.

Der Gedanke dahinter ist wohl, dass helles blaues Monitorlicht nicht gerade müde macht. Die Unterseite dazu liest sich ganz lustig.

Von der Idee her ist das Programm verwandt mit izulu, wenn man den Nachtmodus aktiviert hat. Tagsüber helle Bilder, nachts dunkle - das schafft eine ähnliche Atmosphäre wie die Anpassung der Farbtemperatur. Jetzt bin ich am Überlegen, ob ich f.lux als Option in izulu einbauen sollte, also dass es optional automatisch aufgerufen und mit dem Nachtmodus synchronisiert wird. Allerdings ist f.lux keine freie Software... - Meinungen dazu?

Die heutige Technik wächst rasend schnell. In einen Computer kann immer mehr RAM verbaut werden, die Taktrate einer CPU steigt andauernd und auch eine Grafikkarte wird immer leistungsfähiger. Die Festplatte hingegen bleibt ein bisschen auf der Strecke. Zwar steigern sich auch da die Spezifikationen, doch bei weitem nicht so schnell wie bei anderen Komponenten. Was also tun wenn die Platte langsam zu langsam wird oder schlicht und einfach mehr Speicherplatz her muss?

Die Antwort heisst RAID und steht für Redundant Array of Independent Disks, zu deutsch in etwa “Redundante Anordnung unabhängiger Festplatten” (Wikipedia).

Doch viel Entscheidender für den Einsatz von RAID als der Geschwindigkeitsgewinn ist die Redundanz. So kann eine Disk auf eine oder mehrere Disks, je nach Level, gespiegelt werden. Würde dabei dann eine Disk ausfallen, so wäre auf der oder den anderen Disks noch eine Sicherheitskopie, wodurch diese Wiederhergestellt werden kann.
Natürlich muss man hier erwähnen: Dies ist KEIN ERSATZ für ein BACKUP!

RAID Level

Der RAID Level bestimmt oder definiert, wie die Daten auf den Disks gespeichert werden. Mittlerweile gibt sehr viele verschiedene Levels, wobei die meisten wie 01, 10, 05 o.ä., aber nur Kombinationen aus den Grundlagen wie 0, 1, 5 und ggf auch noch 2, 3, 4 und 6.
Bestandteil von LPIC 201 ist aber nur 0, 1 und 5, also werde ich mich hier auch auf diese Beschränken. Wer mehr dazu wissen will, findet hier eine schöne Übersicht.

RAID 0

Wenn man es ganz korrekt will, so müsste man RAID 0, auch Striping genannt, eigentlich aus der Liste der RAIDs ausschliessen, weil hier keine Redundanz vorhanden ist.

An vorhandenem Festplattenspeicher geht in diesem Level nichts verloren, da ja kein Speicher für die Sicherung reserviert werden muss. Der Vorteil aber der RAID 0 bieten kann: Die Last beim Lesen oder Schreiben auf oder von der Platte kann auf zwei Köpfe verteilt werden, wobei man an Geschwindigkeit gewinnt.

RAID 1

Auch Mirroring genannt bietet RAID 1 nun Redundanz. Alles was auf die Platte 0 geschrieben wird, wird auch auf der Platte 1 abgelegt.

Somit verliert man den Speicherplatz einer ganzen Platte, bekommt dafür aber die Gewissheit, dass falls eine der beiden Platten mal ausfallen sollten, man die Daten wieder herstellen kann. Ein weiterer Vorteil ist, dass beim Lesen von beiden Platten gleichzeitig gelesen werden kann, was wiederum der Geschwindigkeit zu gute kommt.

RAID 5

RAID 5 kann eingesetzt werden, sobald genau oder mehr als 3 Platten vorhanden sind. In Level 5 wird die Redundanz aber nicht wie bei RAID 1 nur von einer Platte getragen, sondern die Spiegelung wird auf die vorhandenen Platten verteilt.

Geht man von der Zahl X für die Anzahl an verbauten Festplatten aus, so werden beim Schreiben die Daten auf X-1 Festplatten verteilt. Die übrig gebliebenen Festplatte übernimmt dabei das Mirroring der eben geschriebenen Daten. Dieser Bereich wechselt für alle geschriebenen Daten zwischen allen Festplatten hin und her.
Fällt nun eine Disk (z.B. 3) aus, so wurden entweder nur das Backup beschädigt, jedoch keine Daten (A) oder der betreffende Sektor (B, C & D) kann aus dem Mirror wiederhergestellt werden. Schlussendlich kann also die ausgefallene Disk durch eine neue, leere ersetzt werden und diese wird automatisch durch den RAID-Verbund wiederhergestellt.

RAID Controller

Ein RAID wird immer von einer betreffenden Stelle aus gesteuert. Dies kann ein RAID Controller in Hardware- oder beim Software-RAID natürlich in Softwareform sein.
Der Vorteil liegt hier klar beim Hardwarecontroller, da dieser neben Cache zum Zwischenspeichern nicht noch die CPU belasten muss. Jedoch ist er in der Anschaffung viel teurer, weshalb auch eine Softwarelösung helfen kann.

Einrichten

Da ein Softwareraid unter Linux auf Modulen des Kernels aufbaut, kann der Status jederzeit über die Datei /proc/mdstat abgefragt werden.
Zum Einrichten eines neuen RAIDs wird das Paket mdadm benötigt. Die Testinstallation werde ich wieder unter Debian durchführen, unter Ubuntu oder anderen Derivaten sind aber keine grossen Abweichungen zu erkennen. Also:

apt-get install mdadm

Dann muss noch das passende Kernelmodul geladen werden. Soweit mir bekannt ist dies unter Ubuntu bereits seit längerem standardmässig im Kernel, unter Debian aber nicht. Also prüfen wir das zuerst:

lsmod | grep md_mod

Erhalten wir eine Ausgabe wie die folgende, so ist das Modul bereits geladen:

md_mod                 73872  0

Ansonsten muss dies noch nachgeholt werden:

modprobe md_mod

Nun kann das RAID eingerichtet werden. Für RAID 0 benutzt man den folgenden Befehl:

mdadm --create --verbose /dev/md0 --auto=yes --level=0 --raid-devices=2 /dev/sda1 /dev/sdb1

Für ein RAID 1 kann man den Aufbau schon erraten:

mdadm --create --verbose /dev/md0 --auto=yes --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1

Und für RAID 5 ist es auch nicht komplizierter:

mdadm --create --verbose /dev/md0 --auto=yes --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdc1

Nun kann das eben erstellte Laufwerk formatiert und gemounted werden:

sudo mkfs.ext3 /dev/md0
mount /dev/md0 /data

Hatten die Disks vorher schon mal ein RAID gespeichert, so sollten diese vor dem Erstellen erst “geputzt” werden von den alten Metadaten:

mdadm --zero-superblock /dev/sda1
mdadm --zero-superblock /dev/sdb1
mdadm --zero-superblock /dev/sdc1

Damit das ganze auch dauerhaft anhält, solle man noch einen Eintrag in der /etc/fstab anlegen und alles in mdadm.conf eintragen:

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

Stoppen

Will man das RAID mal nicht mehr, so muss es natürlich zuerst ausgehängt und ausgetragen und kann dann gestoppt werden:

mdadm --stop /dev/md0

Erweitern

Und wenn man mal eine Platte mehr zur Hand hat, so kann man diese natürlich auch nachträglich noch zufügen:

sudo mdadm --add /dev/md0 /dev/sdd1

Und dann das ganze RAID um den gewonnen Platz vergrössern:

mdadm --grow --raid-devices=4 /dev/md0

Und zum Schluss auch das Dateisystem nicht vergessen:

resize2fs /dev/md0

Und fertig ist die Einführung in Software-RAID.

[Bildquelle]


Das könnte dich auch interessieren:

  1. Junior Level Linux Professional
  2. ReiserFS und XFS
  3. Was bedeutet Load unter Linux?

Manchmal ist es doch sehr praktisch eine APK Datei zu dekompilieren, z.B. um ein wenig Reverse Engineering zu betreiben. Nachdem wir die gewünschte APK auf der Festplatte haben laden wir uns dex2jar unter http://code.google.com/p/dex2jar herunter. Mit diesem Tool wandeln wir den Dalvik Intermediate Code in eine JAR (sprich Java) Datei um. Wir wenden dex2jar mittels

dex2jar.sh test.apk

auf unsere APK an. Heraus kommt eine JAR Datei welche wir mit der JD-GUI (zu finden unter http://java.decompiler.free.fr/?q=jdgui) öffnen und uns so anschauen können.

Weitere Informationen gibt es unter:
http://stackoverflow.com/questions/3122635/android-decompile-apk
http://stackoverflow.com/questions/1249973/decompiling-dex-into-java-sourcecode

Manchmal ist es doch sehr praktisch eine APK Datei zu dekompilieren, z.B. um ein wenig Reverse Engineering zu betreiben. Nachdem wir die gewünschte APK auf der Festplatte haben laden wir uns dex2jar unter http://code.google.com/p/dex2jar herunter. Mit diesem Tool wandeln wir den Dalvik Intermediate Code in eine JAR (sprich Java) Datei um. Wir wenden dex2jar mittels
dex2jar.sh test.apk
auf unsere APK an. Heraus kommt eine JAR Datei welche wir mit der JD-GUI (zu finden unter http://java.decompiler.free.fr/?q=jdgui) öffnen und uns so anschauen können.

Weitere Informationen gibt es unter:
http://stackoverflow.com/questions/3122635/android-decompile-apk
http://stackoverflow.com/questions/1249973/decompiling-dex-into-java-sourcecode

20. März 2011

Die Entwicklergemeinde hat gestern das erste Update für die GNU/Linux-Distribution Debian 6.0 (Codename: “Squeeze”) freigegeben.

Debian GNU/Linux Logo

Bei Debian 6.0.1 handelt es sich hauptsächlich um ein sogenanntes Bugfix-Release, welches vor allem Fehler korrigieren sowie Sicherheits- und Stabilitätsprobleme der vor sechs Wochen erschienenen Version 6.0 von Debian beheben soll.

Wer sein Debian-System immer auf dem neuesten Stand hält, braucht die aktualisierten Installationsmedien deshalb nicht noch einmal  neu herunterzuladen, sondern kann das bestehende System bequem über aptitude bzw. apt-get aktualisieren.

Installationsmedien stehen als CD-, DVD, oder Blu-ray-Image zur Verfügung. Um die Ressourcen der Downloadserver zu schonen, sollte man falls möglich den Download via BitTorrent bevorzugen. Alternativ stehen den Benutzern zum Herunterladen der verschiedenen Images auch FTP-Spiegelserver zur Verfügung.

Detaillierte Informationen über alle Änderungen können dem ChangeLog entnommen werden.

Nachdem ich bereits das Grundgerüst und den Kopf des Cubees erstellt habe, ist nun die “Innenausstattung” an der Reihe.

Als erstes ist der Anschluss der Monitore an der Reihe. Das es sich beim Cubee um eine Art “Beamer” Ersatz handeln wird, müssen alle 4 Monitore das gleiche Bild anzeigen. Die Lösung dafür habe ich mit einem Video-Splitter aus dem Hause Equip gefunden. Da gibt es verschiedene Produkte und ich habe mich für den 4 Port VGA Splitter entschieden. Das Ding läuft auf VGA, SVGA, XGA und Multisynchronmonitore, hat eine Videobandbreite bis zu 450 MHz und unterstützt eine Auflösung bis 2048 x 1536/85Hz.

Für die restliche Elektrik verwende ich Standart Materialien wie Stromleiste, Videokabel, Stromkabel, etc. Die Geräte und Elektromaterialien werden an den Rahmen im Kopf-Innern angeschraubt. Die Kabel werde ich dann später am Kopfboden verlegen, das mache ich aber erst wenn alles an seinem Platz ist und es keine weiteren grösseren Änderungen mehr geben wird.

Die Multimedia-Komponennten

Natürlich kann der Cubee nicht ohne Multimedia-Inhalte leben. So wird auch ein eigenener Computer und ein Soundsystem im Cubee eingebaut werden.

Beim Computer fällt die Auswahl aufgrund der Platzverhältnisse auf eine Asus EEEBox, Modell EB1007. Die Dinger sind extrem klein und schlank, machen keinen Lärm und benötigen auch keinen Lüfter. Als Arbeitsspeicher sind 2 GB RAM eingebaut. Die Kommunikation nach aussen läuft dann über die LAN Schnittstelle oder über das WLAN 802.11b/g/n mit 2.4GHz. Somit die ideale Auswahl für dieses Projekt.

Für den richtigen Sound wird der Labtec Pulse 375 Multimedia Speaker sorgen. Das System hat “nur” 20 Watt, klingt aber ziemlich deftig für einen Cubee. Als ich die ersten Tests damit gemacht habe, mussten meine Kidies die Ohren richtig zuhalten. Es sollte also für den Multimedia-Zwecks ausreichen, damit alle etwas mitbekommen.

Der erste Multimediale Test

Ich habe alle Teile zusammen gebaut und einen ersten Test durchgeführt. Beim Video auf alle Bildschirme sind dann schon die ersten Probleme aufgetreten. So ist das Bild an einem Bildschirm gar nicht gut. Die Farben sind viel zu dunkel und es zeigt sich, dass der Bildschirm nicht mehr gut sei. Ich habe den Bildschirm dann aber an einen anderen Port des VGA Slitters angeschlossen und siehe da, ein wunderbares Bild. So kann ich also schon sagen, dass der Port 2 meines Video Splitters defekt ist. Nun ja, ist eigentlich nicht so schlimm, ich könnte den Cubee auch mit 3 Bildschirmen betreiben, was halt nicht so Spass macht. Ich glaube, ich werde vorher nocheinmal einen neuen Sliptter besorgen.

Jetzt ist der neue Computer an der Reihe. Das Ubuntu ist schnell via USB Stick installiert und funktioniert wie erwartet auf Anhieb ohne Probleme. Als erstes teste ich die Slide Show von der letzten Release Party im 2010. Das ist nur eine kleine Bildabfolge von Ubuntu Bilder die wunderschön über den Cubee flimmern. Auch der Sound lässte sich “hören” und wie gesagt, man muss sich die Ohren zuhalten. Als letztes kommt noch der Zusammenschnitt einiger Ubuntu Videos zum Test. Auch das funktioniert sehr gut und macht richtig Spass damit zu arbeiten. Man sieht, dass der Cubee langsam Leben bekommt.

Als letzter Test steht noch die Fernsteuerung an. Da der Cubee keine Maus und keine Tastatur haben wird muss er “ferngesteuert” werden. Dies werde ich mit VNC machen. Damit wird es möglich sein, den Cubee im Netzwerk zu steuern und zu bedienen. Im Notfall nehme ich natürlich die Tastatur mit, man weiss ja nie. Auch werde ich den Cubee direkt von meine Tablet fernsteuern. Das geht auch sehr gut und ich kann flexibel mich dann rund um den Cubee bewegen.

Fazit

Das Einrichten des Cubees macht am meisten Spass. Jetzt merkt man dass der Cubee zu Leben beginnt.

 

 

 

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

19. März 2011

Neun Tage nach dem Erscheinen des ersten Veröffentlichungskandidaten von Firefox 4.0 hat Mozilla heute den zweiten “Release Candidate” freigegeben.

Mozilla Firefox Logo

Laut den Release Notes wurden in Firefox 4.0 RC 2 ein paar ungültige HTTPS-Zertifikate auf die schwarze Liste gesetzt.

Ausserdem wurden Übersetzungen in 29 Sprachpaketen verbessert. Nachdem Firefox jetzt auch in vietnamesisch angeboten wird, steht der freie Webbrowser seinen Benutzern insgesamt nun in 83 verschiedenen Sprachen zur Verfügung.

Gemäss Mozilla handelt es sich bei diesem zweiten Veröffentlichungskandidaten bereits um ein stabiles Release.

Der zweite Release Candidate kann für Linux, Mac OS X und Windows direkt bei Mozilla heruntergeladen werden.

Da in RC 2 keine gravierenden Fehler mehr entdeckt wurden, kann davon ausgegangen werden, dass Mozilla den geplanten Veröffentlichungstermin einhalten wird.

Es sieht also so aus, als würde der Veröffentlichung der finalen Version von Firefox 4.0 am Dienstag, 22. März 2011 nichts mehr im Wege stehen! :-)

Eine der kontroversesten Entwicklungen in KDE in den letzten Jahren war sicherlich das KDE 4.0 Release. Obwohl es klar als Entwickler Release bezeichnet wurde: "KDE 4.0.0 is our "will eat your children" release of KDE4, not the next release of KDE 3.5." (Aaron Seigo, Plasma Maintainer, am 04.01.2008 in talking bluntly), wurde es auch von Anwendern verwendet und nach dem Feedback was man damals gehört hat, waren sie damit nicht wirklich zufrieden. Vor allem Plasma in KDE 4.0 wurde (zu Recht) als unausgereift und nicht stabil bezeichnet. Selbst heute kann man auf heise oder pro-linux kaum einen Artikel zu KDE sehen ohne Hinweis auf das nicht ausgereifte Release von vor drei Jahren.

Immer wieder hieß es, dass KDE sich durch das Release selbst Schaden zugefügt hat und massiv Nutzer verloren hat. Solche Zahlen sind schwer zu erfassen, da es generell keine Statistiken zu den Anzahl Nutzern gibt. Von Entwickler Seite selbst wird das 4.0.0 Release als äußerst wichtig angesehen, alleine schon weil man in der Open Source Welt "Release Early, Release Often" folgt. Persönlich gehöre ich zu den Entwicklern (Hinweis: mein erster Patch für KWin war kurz vor 4.0.0 und wurde am 08.01.2008 eingespielt), die 4.0 unter dem Aspekt was KDE selbst erreichen wollte, als vollen Erfolg ansehen. Als sehr einfache Metrik um das zu bestätigen: in 2008 wurde fast jeden Tag ein neuer SVN Account erstellt.

Nun bleibt die Frage offen, ob KDE wirklich Nutzer verloren hat durch das Release und sich selbst geschadet hat. Wie gesagt ist es schwierig Daten dafür zu bekommen. Als Versuch möchte ich mal die Bug Statistik von KWin über die Geschichte von 1999 bis heute heranziehen. KWin ist hierbei interessant, da es in 3.5 bereits eine sehr ausgereifte und extrem stabile Anwendung war. in KDE 4 kamen die Desktop Effekte dazu, jedoch bis 4.2 standardmäßig deaktiviert und als experimentelles Feature markiert.

Die Statistik beinhaltet leider auch die "Wishlist" (aka Feature Requests), welche die Statistik leicht verfälschen, da sie meistens nicht bestätigt werden oder implementiert werden. Aktuell haben wir ungefähr 320 Feature Requests wovon 270 zu der roten Linie der Unconfirmed Bugs gehört. Eine Entwicklung über die Zeit steht mir hier leider nicht zur Verfügung.

Erklärung der Begriffe:

  • UNCONFIRMED: ein Bug, der noch nicht reproduziert werden konnte oder ein Feature Request
  • NEW: reproduzierbarer Bug
  • ASSIGNED: ein Entwickler hat sich den Bug zugewiesen – wird in KWin eigentlich nicht verwendet
  • REOPENED: ein Bug der als behoben markiert wurde und noch immer vorhanden ist.

Der Graph zeigt sehr deutlich einen massiven Einschnitt in der Entwicklung. Dieser Einschnitt liegt um die Jahreswende 2007/2008. Zwischen 2005 und 2008 haben sich die Zahlen der bestätigten Bugs kaum verändert. Der Abstand zwischen den UNCONFIRMED und NEW bleibt in diesem Zeitraum in etwa gleich. Was hat sich also in 2008 ereignet, dass sich die Zahlen so verändern? In diesen Zeitraum fällt das 4.0 Release. Seit diesem Zeitpunkt hat sich die Gesamtzahl der offenen Bugs mehr als verdoppelt und nehmen etwa einen linearen Verlauf an.

Zuerst einmal stellt sich hier die Frage: wie kann es sein, dass Bugs gemeldet werden, wenn das Release doch in einem Zustand ist, dass es nicht benutzbar ist und der neue Code in der Anwendung standardmäßig nicht aktiviert ist (und damals) auch auf der meisten Hardware nicht funktionierte?

Eine naheliegende Erklärung zu den wachsenden Kurven wäre, dass vor 4.0 die Entwickler neu aufgemachte Bugs behoben haben und ab 4.0 der Bugtracker vermüllt. Diese These kann man mit einer weiteren Statistik widerlegen:

Zuerst die Erklärung der neuen Linien:

  • FIXED: ein behobener Bug
  • DUPLICATE: ein Bug der bereits gemeldet wurde und durch Triaging manuell als Duplikat markiert wurde
  • NEEDSINFO: ein Bug bei dem Rückfragen an den Nutzer gestellt wurden und keine Antwort kam
  • UPSTREAM: Bug in einer Komponente auf die KWin aufbaut – meistens Treiber

Bei den neuen Kurven ist wichtig zu bedenken, dass es zu erwarten ist, dass die Werte immer weiter anwachsen – im Gegensatz zu den offenen Bugs wo man erwartet, dass sie konstant sind oder zurückgehen. Am interessantesten ist die Kurve der FIXED Bugs. In dem Bereich zwischen 2005 und 2008 ist die Kurve fast konstant – genauso wie die Kurven der UNCONFIRMED und NEW Bugs. In 2008 verändert sich die Kurve ebenfalls und nimmt auch ein lineares Wachstum an. In den drei Jahren seit 4.0 haben die KWin Entwickler fast so viele Bugs behoben wie in den acht Jahren zuvor.

Die Kurve zeigt deutlich, dass zum Auslauf von KDE 3.5 keine neuen Bugs mehr gemeldet wurden und seit 4.0 die Anzahl sowohl gemeldeter als auch behobener Bugs deutlich ansteigt. Dies kann man auch an der DUPLICATE Kurve sehen. Diese wächst auch während KDE 3 linear an. D.h. es wurden immer wieder die gleichen Bugs gemeldet. Jedoch verändert auch diese Kurve Ende 2008 ihre Form (Kubuntu mit 4.1 und Effekten standardmäßig aktiviert). Die Kurve hat klar die stärkste Steigung von allen hier gezeigten und scheint gänzlich unbeeinflusst von den anderen Kurven zu sein. Dass wir viele Duplikate bekommen habe ich ja schon vorher gewusst.

Nun will ich noch eine weitere Statistik zeigen: die Entwicklung von KWin. Mit Hilfe von git log und einem kleinen Programm hab ich mir die Anzahl Commits und Anzahl Committer pro Jahr generieren lassen (Achtung: Y-Achse ist logarithmisch):

Der Graph bricht zum Schluss so stark ab, da wir in 2011 noch nicht viele Monate hatten ;-) Was dieser Graph nun zeigt, ist dass in der Zeit in der keine neuen Bugs gemeldet wurden die Enticklungsgeschwindigkeit stark angezogen hatte (KDE 4 Portierung/Entwicklung der Effekte) und auf dem hohen Level sich hat halten können. Das 4.0 Release hat die KWin Entwicklung weder in die eine noch in die andere Richtung beeinflusst. Insbesondere konnte KWin das reduzierte Engagement des Maintainers (immernoch etwa 27 % aller Commits) durch neue Entwickler kompensieren.

Fazit:

  1. Die Aussage, dass es das 4.0 Release brauchte um den Code getestet zu bekommen, ist im Falle von KWin klar bestätigt. Seit 4.0 steigt die Anzahl der gemeldeten und behobenen Bugs stark an.
  2. Zumindest KWin hat durch das 4.0 Release keine Nutzer verloren. Andernfalls hätte die Kurve nicht anziehen können
  3. Die Anzahl der Bugs ist gestiegen obwohl die neue Funktionalität nicht standardmäßig aktiviert war. Dies deutet auf ein Wachstum der Benutzerzahlen hin.
  4. Das spätere standardmäßige Aktivieren der neuen Funktionen hat keine Auswirkungen auf offene und behobene Bugs sondern nur auf Duplikate und Treiber Bugs
  5. Die massive Stabilisierung in KWin hat keine Auswirkung auf die Anzahl der gemeldeten Bugs. Die Rate ist nahezu konstant. Auch dies lässt sich nur mit Anwachsen der Benutzerzahlen erklären.
  6. KWin ist als Projekt sehr gesund.

Ich bitte davon Abstand zu nehmen mich in den Kommentaren daruaf hinzuweisen, dass 4.0 doch ganz fürchterlich war. Das 4.0 Release war vor meiner Zeit als Entwickler und ich bin daher in keinster Weise für das Release verantwortlich.

=-=-=-=-=
Powered by Blogilo

Bei VICE handelt es sich um einen Emulator für verschiedene Commodore Rechner wie z.B. den Commodore 64 oder den Commodore 128. VICE kann dabei mittels

sudo apt-get install vice

installiert werden. Bei Ubuntu werden die ROMs für die jeweiligen Rechner allerdings nicht mitgeliefert (das Copyright hält die niederländische Firma Tulip) so das diese manuell hinzugefügt werden müssen. Dazu lädt man sich von der offiziellen VICE Seite unter http://viceteam.org/ die Windows Version herunter und entpackt diese. Die Ordner welche sich in diesem Archiv befinden werden dabei in den Ordner /usr/lib/vice kopiert. Anschließend startet VICE ohne Probleme :)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/VICE
http://de.wikipedia.org/wiki/VICE
http://www.c64-wiki.de/index.php/VICE
http://de.wikipedia.org/wiki/Commodore_64

Bei VICE handelt es sich um einen Emulator für verschiedene Commodore Rechner wie z.B. den Commodore 64 oder den Commodore 128. VICE kann dabei mittels
sudo apt-get install vice
installiert werden. Bei Ubuntu werden die ROMs für die jeweiligen Rechner allerdings nicht mitgeliefert (das Copyright hält die niederländische Firma Tulip) so das diese manuell hinzugefügt werden müssen. Dazu lädt man sich von der offiziellen VICE Seite unter http://viceteam.org/ die Windows Version herunter und entpackt diese. Die Ordner welche sich in diesem Archiv befinden werden dabei in den Ordner /usr/lib/vice kopiert. Anschließend startet VICE ohne Probleme :-)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/VICE
http://de.wikipedia.org/wiki/VICE
http://www.c64-wiki.de/index.php/VICE
http://de.wikipedia.org/wiki/Commodore_64

18. März 2011

Mit Gimp könnt ihr ganz einfach ein Webdesign in seine Einzelteile zerlegen (engl. slicen). Die einzelnen Bilder könnt ihr dann bei der Programmierung des Webdesigns in die Website einarbeiten.

Insgesamt sind für das Slicing des Webdesigns 3 Arbeitsschritte notwendig:

  1. ungewünschte Ebenen / Objekte entfernen
  2. Hilfslinien setzen
  3. Slicing-Filter anwenden

Wer Gimp noch nicht installiert hat, findet hier eine Anleitung.

Ungewünschte Ebenen / Objekte entfernen

Blendet alle Ebenen aus, die ihr nicht für die Programmierung benötigt, z.B. Text, Menü und Logo. Dinge die stören und nicht als eigene Ebene im Bild sind, schneidet ihr aus oder überzeichnet sie (in Zukunft aber immer Ebenen verwenden).

Gimp: Ebenen ausblenden

Hilfslinien in Gimp setzen

Dann zieht ihr die Hilfslinien in das Webdesign. Die Hilfslinien dienen später beim Slicing als Schnittkanten an denen das Webdesign zerteilt bzw. gesliced wird.

Gimp: Lineal anfassen

Exkurs: Hilfslinien in Gimp verwenden

Um Hilfslinien in Gimp zu verwenden, fasst ihr mit der Maus einfach ein Lineal an und zieht dann die Hilfslinien in das Bild. Wenn ihr keine Hilfslinien seht, müsst ihr die Hilfslinien evtl. mit Strg+Shift+T oder unter Ansicht > Hilfslinien anzeigen aktivieren.

Gimp: Hilfslinien anlegen

Webdesign slicen

Zum Abschluss wählt ihr im Menü Filter > Web > Zerteilen. Im darauf folgenden Dialog wählt ihr das gewünschte Verzeichnis und Format; sonst könnt ihr die Einstellungen so lassen, wie sie sind.

Gimp: Slcing-Filter

Das Ergebnis könnt ihr dann im zuvor gewählten Ordner anschauen. Dort findet ihr eine HTML-Datei mit einer Layout-Tabelle und die zerteilten Bilder. Im Video seht ihr die einzelnen Schritte nochmal live in Action. Jetzt könnt ihr loslegen und euer mit Gimp geslicetes Webdesign programmieren.

Gimp: einzelne Bilder nach Slicing

The post Gimp zum slicen eines Webdesigns appeared first on Rockiger.

Auch wenn sich die wenigsten schon darüber Gedanken gemacht haben, aber auch für CD-ROM und DVD gibt es ein Dateisystem. Für CD ist dies standardisiert durch ISO und trägt den Namen ISO-9660. Natürlich kann jeder nach Belieben ein anderes Dateisystem für seine CD verwenden, aber 9660 ist nun mal der Standard.

Doch auch wenn es offiziell als Dateisystem bezeichnet werden kann, so hat es mit einem Dateisystem wie man es kennt (wie z.B. ext3) auf Grund seiner starken Einschränkung, nicht viel zu tun:

  • so sind Dateinamen auf Grossbuchstaben, Ziffern und _ beschränkt.
  • Typ wird über das Kürzel nach dem Punkt definiert (wie unter Windows)
  • Beschränkung von 31 Zeichen für Dateinamen und 255 für den kompletten Pfad
  • Nicht tiefer als 8 Verschachtelungen für Verzeichnisse
  • Keine symbolischen Verknüpfungen

Ein ganz entscheidender Nachteil ist natürlich jedem Bekannt. Ist eine CD einmal geschrieben, so kann diese nicht mehr verändert werden. Das Dateisystem ist also nur zum Lesen gedacht…

Um seine CD zu brennen, kann man auf diverse grafische Tools wie Brasero o.ä. zurückgreifen. Wer es aber spannender will, der macht das auf der Konsole ;)

Dazu verwende ich das Tool genisoimage (unter Debian). Unter Fedora und Derivaten gibt es noch mkisofs. Die Parameter sind aber bei beiden so ziemlich identisch:

genisoimage -r -o image.iso ordner1 datei1 ordner2 ordner3

Da das ISO für eine CD gedacht ist, verwende ich die Option -r. Damit sind die im ISO enthaltenen Daten automatisch für jeden Benutzer lesbar und im Besitz von root. Alles andere wäre kontraproduktiv wenn ich die Daten später an einer anderen Maschine lesen will.
Sind die Daten immer für den selben Systemaufbau bestimmt (wie z.B. bei einem Backup) so empfiehlt sich die Option -R, wodurch alle Besitzer und Rechte erhalten bleiben.

Heraus kommt dann das Dateisystem für eine CD:

root@master:~# file image.iso
image.iso: ISO 9660 CD-ROM filesystem data 'CDROM'

Da auch ein ISO nur ein Dateisystem ist, kann dieses auch im System gemounted und betrachtet werden:

mount -o loop,ro -t iso9660 image.iso /mnt/

Um das Tool nun zu brennen, kann man auf das Tool cdrecord zurückgreifen. Unter Debian hat man das Tool zwar mittlerweile gespickt, aber eine funktionsgleiche Alternative ist mir noch nicht bekannt.
Zuerst muss das CD-Laufwerk gefunden werden, damit man auch weiss, wie dieses angesprochen werden muss:

root@master:~# cdrecord -scanbus
scsibus1:
	1,0,0	100) 'SONY    ' 'CDRWDVD CRX880A ' 'KD09' Removable CD-ROM
	1,1,0	101) *
	1,2,0	102) *
	1,3,0	103) *
	1,4,0	104) *
	1,5,0	105) *
	1,6,0	106) *
	1,7,0	107) *

In meinem Beispiel also wäre das CD-Laufwerk unter 1,0,0 zu suchen. Und nun kann auch endlich gebrannt werden:

cdrecord -v dev=1,0,0 speed=4 -data image.iso

Über -v gibt man dabei den Vortschritt [sic] ;) aus, mit -data wählt man die passende Schreibmethode (hier Daten, also TAO).

Nun aber sind CDs nicht mehr ganz Zeitgemäss und so wurde auch eine Alternative für ISO-9660 entwickelt: UDF (Universal Disk Format), welches natürlich auch normiert wurde (unter ISO 13346). Auch Verbesserungen bringt das neue Dateisystem natürlich einige mit:

  • Dateinamen bis zu einer Länge von 255 Zeichen
  • Keine Beschränkung für die Verzeichnistiefe mehr
  • Beschränkung für Pfadlänge nun bei 1023 Zeichen
  • Gross- und Kleinschreibung in Dateinamen
  • Übernehmen von Dateiattributen von diversen Betriebssystemen

Um auf eine CD / DVD zu brennen, erstellen wir zuerst wieder ein ISO und formatieren dieses:

dd if=/dev/zero of=image.iso bs=1M count=0 seek=700
mkudffs image.iso

Nun können wir unser Dateisystem mounten und beschreiben:

mount -o loop image.iso /mnt
cp datei1 /mnt/

Zum Brennen könnte man wieder cdrecord nehmen, jedoch werden darin DVDs nur in der kommerziellen Version unterstützt, also müssen wir auf growisofs zurückgreifen:

growisofs -dvd-compat -Z /dev/dvd=image.iso

Alles in allem relativ aufwendig und wenn ich ehrlich bin: Wenn ich rasch eine DVD brennen muss, so verwende ich ein grafisches Tool. Oder wie oft kommt es vor, dass man an einem Server ohne GUI DVDs brennen muss… Somit dünkt es mich auch ein bisschen Unsinnig, dass das noch in LPIC vorkommt.
Wahrscheinlich aber noch ein Überbleibsel aus der guten, alten Zeit ;)


Das könnte dich auch interessieren:

  1. ReiserFS und XFS
  2. ext2 / ext3
  3. PDF mit Linux zusammenfügen

Mit Gimp könnt ihr ganz einfach ein Webdesign in seine Einzelteile zerlegen (engl. slicen). Die einzelnen Bilder könnt ihr dann bei der Programmierung des Webdesigns in die Website einarbeiten.

Insgesamt sind für das Slicing des Webdesigns 3 Arbeitsschritte notwendig:

  1. ungewünschte Ebenen / Objekte entfernen
  2. Hilfslinien setzen
  3. Slicing-Filter anwenden

Wer Gimp noch nicht installiert hat, findet hier eine Anleitung.

Ungewünschte Ebenen / Objekte entfernen

Blendet alle Ebenen aus, die ihr nicht für die Programmierung benötigt, z.B. Text, Menü und Logo. Dinge die stören und nicht als eigene Ebene im Bild sind, schneidet ihr aus oder überzeichnet sie (in Zukunft aber immer Ebenen verwenden).

Gimp: Ebenen ausblenden

Hilfslinien in Gimp setzen

Dann zieht ihr die Hilfslinien in das Webdesign. Die Hilfslinien dienen später beim Slicing als Schnittkanten an denen das Webdesign zerteilt bzw. gesliced wird.

Gimp: Lineal anfassen

Exkurs: Hilfslinien in Gimp verwenden

Um Hilfslinien in Gimp zu verwenden, fasst ihr mit der Maus einfach ein Lineal an und zieht dann die Hilfslinien in das Bild. Wenn ihr keine Hilfslinien seht, müsst ihr die Hilfslinien evtl. mit Strg+Shift+T oder unter Ansicht > Hilfslinien anzeigen aktivieren.

Gimp: Hilfslinien anlegen

Webdesign slicen

Zum Abschluss wählt ihr im Menü Filter > Web > Zerteilen. Im darauf folgenden Dialog wählt ihr das gewünschte Verzeichnis und Format; sonst könnt ihr die Einstellungen so lassen, wie sie sind.

Gimp: Slcing-Filter

Das Ergebnis könnt ihr dann im zuvor gewählten Ordner anschauen. Dort findet ihr eine HTML-Datei mit einer Layout-Tabelle und die zerteilten Bilder. Im Video seht ihr die einzelnen Schritte nochmal live in Action. Jetzt könnt ihr loslegen und euer mit Gimp geslicetes Webdesign programmieren.

Gimp: einzelne Bilder nach Slicing