ubuntuusers.de

11. Februar 2013

Wer den Bashtuner nicht im Tray und ohne yad nutzen möchte, der kann die Classic Version wählen. Die neuen Funktionen sind auch in diesem Script enthalten.

Es muss lediglich das Archiv “Bashtuner 2.1.0” heruntergeladen und ins Homeverzeichnis entpackt werden. Sollte sich dort bereits der Ordner bashtuner befinden braucht man nur die bashtuner-classic.sh aus dem Archiv in den Ordner kopieren und ausführbar machen.

Abhängigkeiten: zenity, streamripper, vlc, at (Alle in den offiziellen Quellen enthalten)

 

Neuinstallation über die Konsole (Classic Version)

Folgende Schritte nacheinander in einer Konsole ausführen:

Die Abhängigkeiten:

Source code   
sudo apt-get install zenity streamripper vlc at

Source code   
mkdir $HOME/bashtuner
mkdir $HOME/bashtuner/Aufnahmen
mkdir $HOME/bashtuner/Icon
wget -O $HOME/bashtuner/bashtuner-classic.sh http://www.linuxfiles.de/scripte/bashtuner-classic.txt
wget -O $HOME/bashtuner/sender.csv http://www.linuxfiles.de/scripte/sender.csv
wget -O $HOME/bashtuner/Icon/bashtuner.jpg http://www.linuxfiles.de/scripte/bashtuner.jpg
chmod +x $HOME/bashtuner/bashtuner-classic.sh

Nach der Installation bashtuner-classic.sh mit Doppelklick und Ausführen starten. Bei Problemen bitte melden, ich helfe gerne weiter.

10. Februar 2013

In meinem Artikel vom 08.02.2013 habe ich den neuen Bashtuner vorgestellt. Ein Problem das ich bis zu diesem Zeitpunkt noch nicht lösen konnte, war das das Script unter Ubuntu mit Unity nicht starten wollte. Die Lösung ist relativ einfach. Unity lässt das anzeigen von Symbolen im Panel nur eingeschränkt zu. Damit Programme ein Symbol anzeigen können, muss man das anzeigen der Symbole erlauben. Das kann man getrennt für jedes Programm vornehmen oder aber grundsätzlich für alle Programme.

Nachfolgende Eingabe in der Konsole (Terminal) behebt das Problem und Unity lässt künftig das anzeigen von Symbolen im Panel zu:

Source code   
gsettings set com.canonical.Unity.Panel systray-whitelist "['all']"

Nach diesem Schritt einmal vom System abmelden und wieder anmelden – fertig.

Der Wert in der Klammer ['all'] kann durch einen Programmnamen ersetzt werden, wenn nur ein einzelnes Programm die Erlaubnis bekommen soll ein Symbol anzuzeigen. Allerdings sehe ich keinen Grund warum Symbole im Panel gesperrt sind.

Wer Bashtuner nicht im Panel haben möchte kann auf die Classic Version zurückgreifen.

Meist wird es nur als optische Spielerei abgetan, als Luxusproblem – die Möglichkeit, seinen Desktop so anpassen zu können, wie es einem selbst gefällt. Doch dieser Luxus wird zur Notwendigkeit, wenn man z.B. eine Sehbehinderung hat. Dann ist man darauf angewiesen, dass sich der Desktop optimal an die persönlichen Bedürfnisse anpassen lässt, also etwa Farbeinstellungen und Größenverhältnisse individuell und programmübergreifend ändern lassen. Gastautorin Jennifer Rößler hat sich unter diesem speziellen Gesichtspunkt die gängigen Linuxoberflächen einmal angesehen, und zwar nicht die extra auf Behinderte zugeschnittenen Distributionen wie z.B. Vinux, sondern die normalen Oberflächen, wie sie mit Ubuntu ausgeliefert werden.

Auf der Suche nach dem richtigen Desktop, mit dem auch Sehbehinderte klarkommen, die keine Sprachausgabe, dafür aber große Schrift und eine angepasste Hintergrund- und Schriftfarbe benötigen, haben wir einmal alle verfügbaren Desktops für Ubuntu auf ihre Sehbehindertenfreundlichkeit hin getestet. Es gibt eine Gruppe von Sehbehinderten, die einen schwarzen Hintergrund und gelbe, große Schrift benötigen, um komfortabel damit arbeiten zu können. Dies aber stellt sich nicht so einfach dar wie man vielleicht denken könnte.

Unity

Einmal völlig abgesehen davon, dass das Fehlen eines Startmenüs, das Finden eines Programms nur über die Suche im Dash, das Arbeiten unter Unity für einen Laien nicht gerade intuitiv gestaltet, sind auch die Farb- und Schrifteinstellungen genauso spartanisch wie der Rest. Will man als Sehbehinderter Unity auf einem Net- bzw. Notebook nutzen, müssen dafür bestimmte Voraussetzungen erfüllt sein. Es muss ein Theme auswählbar sein, das einen schwarzen Hintergrund der Menüs aller Anwendungen ermöglicht und die Schriftfarbe und -größe muss nach den persönlichen Bedürfnissen des Sehbehinderten einstellbar sein. Leider bietet Unity auf einem Netbook bspw. nur drei Themes, davon nur eines invertiert; der Hintergrund ist dann zwar dunkel, aber dunkelblau und nicht schwarz. Dies macht es notwendig, weiß als Schriftfarbe zu verwenden, was leider auf Dauer für manche Sehbehinderte zu anstrengend wird, da sie weiß als zu grell empfinden.


Unity bietet nur Dunkelblau/Weiß als Kontrastfarben an – und stellt Beschriftungen bei großer Schrift nicht richtig dar

Auch bei der Schriftgröße hat man keine große Wahl. Es gibt nur „klein“, „normal“, „groß“ und „größer“. Die größte Schriftgröße reicht gerade einmal, um halbwegs zurechtzukommen, da viele Programme keine eigene Schriftgrößeneinstellung mitbringen und so manch ein Anwendungsfenster dann immer noch mit so kleiner Schrift daherkommt, dass sie kaum lesbar ist. Ein weiteres Problem, dass sich bei sehr großer Schrift ergibt, ist, dass Anwendungsfenster nicht mehr komplett auf den Bildschirm passen und man droht, den Überblick zu verlieren, da man umso mehr scrollen muss. Stellt man die Schriftgröße aber so ein, dass alles auf den Bildschirm passt, ist die Schrift zu klein. Menüs, die nicht mehr am oberen Rand einer Anwendung zu finden sind, sondern sich im Bereich des Panels befinden und je nach aktiver Anwendung wechseln, sind auf Dauer äußerst anstrengend, da man schnell den Überblick darüber verliert, wo man sich gerade befindet.

XFCE (Xubuntu)

Wesentlich komfortabler gestaltet sich da XFCE. Es kommt mit einem klassischen Panel und einem Startmenü daher, was einem die Suche nach diversen Einstellungen sofort erleichtert. Zwar ist es ungewohnt, das Panel oben statt unten zu haben, aber daran gewöhnt man sich schnell.


XFCE ebenfalls nur in Blau/Weiß – und die Bestätigungsbuttons sind nicht mehr erreichbar, weil die Fenster über den Bildschirmrand ragen.

Die Theme-Auswahl ist hier bereits von Haus aus wesentlich umfangreicher. Doch auch hier findet sich mit dem Zusatz „invertiert“ nur ein dunkelblauer statt schwarzer Hintergrund. Dafür lässt sich aber die Schriftgröße beliebig groß einstellen. Man stelle sich aber einmal Schriftgröße 32 auf einem 10 Zoll-Bildschirm vor. Diese Größe ist notwendig, um die Schrift in einigen Anwendungsfenstern bequem lesen zu können, ohne mit der Nase auf dem Monitor kleben zu müssen. Da bedeckt ein ausgeklapptes Menü locker den halben Bildschirm und reicht bis zum unteren Rand. Was aber für die Menüs gar nicht notwendig wäre.

LXDE (Lubuntu)

Wirklich positiv überrascht hat hier LXDE. Wer bis jetzt noch mit Ubuntu 10.10 arbeitet, weil er sein Gnome 2 nicht aufgeben mochte, dem sei gesagt, LXDE sieht fast genauso aus. Panel unten, klassisches Menü, wie bei Gnome 2. Hier die Farbeinstellungen zu finden war überhaupt kein Problem. Für Fenster, Menü oder Minitipps lassen sich problemlos sowohl Farbhintergrund wie auch Schriftfarbe nach Wunsch anpassen. Jedoch ist dies nicht bei allen Themes möglich, bei einigen ist diese Möglichkeit deaktiviert.


Vorbildlich: LXDE lässt bequem individuelle globale Farbeinstellungen zu.

Nur die Schriftgröße stellt das gleiche Problem dar wie bei den anderen Desktops auch. Sie ist nur generell für alles einheitlich einstellbar. Bis man also die Schrift in bestimmten Fenstern (als Beispiel sei hier das Pidgin-Nachrichtenfenster genannt) auf die benötigte Schriftgröße gestellt hat, ist die Schrift in anderen Fenstern oder Programm- oder Arbeitsflächenmenüs so groß, dass sie nicht mehr komplett auf den Bildschirm passen. Schriftgröße 18 ist die Grenze, wo man z. B. wenigstens noch an den Schließen-Button eines Fensters herankommt. Die oben erwähnte gelbe Schrift macht es möglich, dass man notfalls auch mit dieser Schriftgröße zurechtkommt. Die Alternative wäre, jedes Mal die Schrift nach Bedarf umzustellen. Zwar lässt sich hier sogar alternativ der DPI-Wert erhöhen, dieses hat dann aber natürlich wieder Auswirkungen auf alle Fenster und Anwendungen und führt u. U. Zu Problemen bei der Fensterdarstellung.

KDE (Kubuntu)

Wenn es um Farbeinstellungen geht, bleiben bei KDE kaum Wünsche offen. Für jede Eventualität lässt sich die Farbe zumindest bei einigen Themes beliebig einstellen. Selbst die Schriftgröße lässt sich generell oder für Leisten, Fenster oder Sonstiges beliebig einstellen, auch der DPI-Wert ist anpassbar, hier ergibt sich dann jedoch im Zweifelsfall das gleiche Problem wie bei LXDE. Im Ergebnis lassen sich sämtliche Menüs in gewünschter Größe darstellen. Es lassen sich aber nicht alle Programme an die Systemeinstellungen anpassen; hier ist es von Vorteil, wenn das Programm eigene Schriftgrößeneinstellungen mitbringt.


Perfekt: Einstellungen bis ins Detail und alles passt auf den Bildschirm

So einfach das Verändern der Farbeinstellungen unter KDE auch ist, einen Haken hat das Ganze: muss man die Einstellungen für andere Anwendungen öffnen, sei es nur, um vielleicht mal die Schriftgröße für irgendeinen Punkt zu ändern (man hat also den Farbeinstellungsbereich selbst gar nicht geöffnet), dann kann man sämtliche Farbeinstellungen neu einstellen, denn jede Anwendung, die nach dem Aufenthalt in „Einstellungen für Anwendungen“ geöffnet wird (ohne dass man an den Einstellungen etwas verändert hätte) startet dann wieder mit Standardfarben. Dafür bietet KDE als einziger Desktop die Möglichkeit, den Mauszeiger zu vergrößern.


Leerer KDE-Plasma-Desktop eines Sehbehinderten

Gnome-Shell

In puncto Farb- und Schriftgrößeneinstellungen unterscheidet sich Gnome Shell (hier in der Ausweichvariante genutzt) nicht von Unity. War Unity vorher schon installiert, werden die Einstellungen komplett übernommen. Auch die Themenauswahl bleibt die gleiche.

Fazit

Ist von Linux die Rede, wird oft von großer Vielfalt gesprochen. Sucht man als sehbehinderter Mensch aber einen Desktop, der beliebig anpassbar ist, muss man meist Abstriche machen. Nicht alles lässt sich wie gewünscht einstellen und nicht alle benötigten Möglichkeiten, wie etwa die zur Vergrößerung des Mauszeigers, sind überall vorhanden. Der perfekte Desktop wären die Mausvergrößerungsoption, Farb- und Größeneinstellungsmöglichkeiten und das einfache Umstellen des Arbeitsflächenhintergrundes von KDE, und die Sicherheit, dass alles so eingestellt bleibt wie es war, wie bei LXDE.

Wie ich gerade bei GameCaptain lese, läuft auf Kickstarter eine Spendenaktion zu Dreamfall Chapters.

„The Longest Journey“ und der Nachfolger „Dreamfall“ waren für mich zwei herausragende Adventure, die vor allem mit einer überaus großartigen Geschichte und interessanten Charakteren bei mir punkten konnten. Im März 2008 schrieb ich bereits bei der Dreamfall-Rezension, dass mich nur das offene Ende etwas enttäuschte.

Nachdem bereits 2007 „Dreamfall Chapters“ geplant war, soll es nun über Kickstarter finanziert werden. Es arbeitet das gleiche Team daran, diesmal aber ohne großen Publisher, weswegen man auf die Vorabunterstützung der Community angewiesen ist. In drei Tagen hat das Projekt schon eine halbe Million Dollar eingenommen und es sieht gut, dass das Ziel erreicht wird.

Da die Unity-Engine benutzt wird, ist es wahrscheinlich, dass das Spiel sogar für Linux erscheint. Die Steambox und Ouya sind auch eingeplant, wenn genügend Geld zusammenkommt (siehe FAQ). Es sind auch andere Sprachen geplant, wobei die englischen Originalstimmen bisher immer einen Tick besser waren. Andere Bezahloptionen als Amazon Payments sind derzeit nicht verfügbar. Wenn das Ziel erreicht wird, soll aber auch Paypal & Co angeboten werden.

Ich freue mich sehr, dass die Geschichte von Zoe und April weitergeht und ich vielleicht im November 2014 schon wieder nach Stark und Arcadia reisen kann.

Dieses Blog stellt Opensource-Software in den Mittelpunkt. Trotzdem gibt es Situationen, die den Einsatz proprietärer Software nötig machen, weil es selten vorkommt, dass (bisher) kein quelloffenes Programm für den entsprechenden Anwendungsbereich verfügbar ist. Das teilweise fehlende Angebot an einer bestimmten proprietären Software ist eines der Standard-, und, um es direkter zu sagen: Totschlag-Argumente gegen die Nutzung von Linux-Desktops. Es wird häufig nicht gefragt, welche Anwendungsaufgabe eigentlich gelöst werden soll, sondern in den Mittelpunkt rückt, “dass es da ein Programm gibt, das ich vermeintlich kenne und das alle haben“. Dass es für die allermeisten Aufgaben hochwertige Opensource-Alternativen gibt, spricht sich nur sehr langsam herum. Der Bereich CAD/CAM-Software hat allerdings vor allem im Bereich der 3D-Entwicklung noch sehr wenig zu bieten, während die Paketverwaltung (der ‘Programm-Store’ unter Linux) randvoll ist mit sehr guten 2D-Zeichenprogrammen.

Für ein Schulprojekt gab es eine klare Zielsetzung: Nur wegen der Teilnahme an einem Wettbewerb zur Entwicklung eines Formel-Eins-Rennwagenmodells sollte nicht auf die komfortablen Linux-Arbeitsplätze verzichtet werden.

Der Support zu weit weg: CollabCAD

Flag of IndiaDie Suche führte zunächst zu CollabCAD, einerm Programm, das vom indischen National Informatics Center entwickelt und betreut wird. Der Slogan des Instituts lautet: ‘The IT support professionals‘. Nach unseren Erfahrungen antworten wir: “Well, we would like to believe…

Obwohl das Institut diesen Anspruch formuliert, war es zunächst unklar, welche Lizenzbedingungen – auch für uns als Schule – überhaupt gelten. Später erwies sich, dass es nur schwer möglich war, kompetent Auskunft über diverse Fehlermeldungen zu bekommen, die den Programmstart verhinderten. Einen ersichtlichen Grund für die Supportlücke gab es nicht, auffallend war nur, dass es mehrere AnsprechpartnerInnen gab, die jeweils neu eine Fehlerbeschreibung anforderten. Letztlich kümmerte sich offenbar eine Zeit lang niemand mehr um das Anliegen, sodass das Programm nicht genutzt werden konnte.

Mit nur geringem Aufwand: MEDUSA4 Personal von CAD Schroer

Der zweite Anbieter, die Fa. CAD Schroer aus Moers, öffnet(e) die Türen ganz weit für die Nutzung Ihrer 3D-CAD-Software in Schule und Ausbildung auf Linux-Desktop-Systemen: Es gibt für die angebotene Software ‘MEDUSA4 Personal‘ einen eindeutigen Hinweis auf die Nutzung in Schule und Ausbildung: Mit dem Angebot einer einjährigen, auf die MAC-Adresse eines Rechners bezogene Lizenz, die dann erneuert werden muss. Der Lizenzschlüssel kann über eine, nämlich die Mailadresse der Lehrkraft, abgerufen werden. Damit müssen Mailadressen der SchülerInnen nicht weitergegeben werden, selbst wenn SchülerInnen die Software zu Hause nutzen wollten. Zu dem Programm hat CAD Schroer ein Supportforum eingerichtet, das die Nutzergemeinde in den Austausch über die Software (Bedienung, Fehlerbehebung usw.)  miteinbezieht. Damit war eine Fehlermeldung beim Start auch schnell beseitigt.

Oh je, die Konsole?

Erfahrungsgemäß scheitern Lehrkräfte nicht selten an einer einfachen Programmbedienung, die nicht einem exakt gleichen Schema folgt sind SchülerInnen extrem flexibel, wenn es darum geht, ein Problem zu lösen. Dass der Programmstarter ‘irgendwie’ nicht funktionierte, und die SchülerInnen stattdessen mit Administratorrechten (das ‘sudo‘) in der Konsole das Programm öffnen mussten, war nur einen Moment lang eine Hürde. Dass dann auch noch entdeckt wurde, dass sich die Konsole an die letzten Befehle durch die Pfeiltasten ‘erinnert’, ergab in der dritten Stunde einen schönen Workflow: Rechner hochfahren, Browser starten und das (Schul-)Mailkonto checken, die Konsole und MEDUSA4 Personal starten. Wenn alles so einfach wäre.

konsolenstart medusa4personal

Ein Stück Realität

Der Vollständigkeit halber soll hier erwähnt werden, dass das Projekt aus organisatorischen Gründen leider keinen Abschluss fand :-(

Fazit

Ein kurzes, auch pädagogisches Fazit:

  • Die Software MEDUSA4 erscheint sehr hochwertig, und trotz der Komplexität noch verhältnismäßig intuitiv zu bedienen.
  • Das Programm bietet sich für die Klassenstufe 9, besser noch 10 an. In der Oberstufe sollten SchülerInnen Aufgaben allein mit den Tutorials (s.u.) bewältigen können.
  • Ein möglicher Unterrichts- oder Projekteinstieg in der SI ist das Erstellen einer 2D-Zeichnung z.B. mit LibreCAD, die dann unter MEDUSA4 Personal in 3D umgewandelt werden kann.
  • Youtube-Tutorials auf dem Channel von CAD Schroer bieten teilweise hervorragende Anleitungen, die gut nachvollziehbar sind.

CAD Schroer Youtube Channel

Kennen Sie das Programm, haben Sie es (unter Linux) in Schule oder Ausbildung eingesetzt? Gibt es eine vergleichbare, quelloffene Software?

Nutzen Sie die Kommentarfunktion.

Wie das Wall Stress Journal und BITblokes berichtet, sind die ersten Smartphones mit Ubuntu Phone für Oktober angekündigt.

Ubuntu Phone

Wahrscheinlich werden die Geräte zuerst in Amerika auf den Markt gebracht – ich bin auch mal gespannt, für welche Geräte außer dem Samsung Galaxy Nexus ein entsprechendes Abbild (“ROM”) zur Verfügung gestellt werden wird.

Da der Android-Kernel verwendet werden soll, sollte Ubuntu Phone mit Android-Geräten kompatibel sein – eventuell kann ich mir Ubuntu Phone auch mal auf meinem RAZR i anschauen.

Es soll den ein oder anderen geben, der seine Daten zwischendurch auf externe Medien wie Festplatte oder DVD sichert. Hierfür gibt es unzählige kostenpflichtige oder auch kostenlose Tools, manchmal reicht auch ein kleines Script um eine Sicherung seiner Daten anzulegen. Nur wie oft wird die eigene Internetseite gesichert? Natürlich kann man sich auf die backups seines Hostingproviders verlassen, nur kommt man da notfalls schnell ran und vor allem auch kostenlos? Für wordpress, contao etc gibt es Plugins die den Auftritt sichern, ich habe mir jedoch ein eigenes kleines Script geschrieben.

Die folgenden Variablen müssen hierfür befüllt werden:

# ftp Zugangsdaten
USERNAME=<username> //willi
PASSWORD=<passwort> //sogeheim
SERVER=<server> //www.meineseite.de
# aufruf der per htaccess php Datei
USER=<user>  // lieschen
PASSWORD2=<passwort> // auchgeheim
URL=<url zum Aufruf ohne dump.php Angabe> // www.meineseite.de/geheim
DATEIPFAD=<Pfad zur dump.php per ftp> // geheim

Hier werden die lokalen Backups abgelegt.

TARGET=/backup/${SERVER}/${DATE}

Als erstes wird der unter TARGET angegebene Ordner erstellt, im Anschluss werden alle Dateien per FTP heruntergeladen. Um Platz zu sparen werden die heruntergeladenen Dateien gepackt.
Damit ein mysqldump erstellt werden kann, muss die Datei dump.php auf der Internetseite hinterlegt werden. (Die dump.php muss per htaccess geschützt werden.) In dem Script wird die Datei über lynx aufgerufen, nach dem Aufruf wird der sqldump per ncftpget heruntergeladen. Der Abruf per ncftpget ist so gesetzt, das der sqldump nach erfolgreichem download gelöscht wird.

In der dump.php sind die Zugangsdaten für die Mysql Datenbank hinterlegt. Wenn mehrere Datenbanken unter dem Webhostingpaket verwendet werden, kann der php Code zum erstellen des Dumps auch öfters angegeben werden.

Download:Script

Minitube
Genre Online-Videoplayer
Preis kostenlos
Homepage http://flavio.tordini.org/minitube/

Vor mehr als drei Jahren habe ich die App Minitube zum ersten mal vorgestellt. Dieser native Youtube-Video-Player spielt Videos von der Plattform ab, ohne auf das proprietäre Flash-Format zurückzugreifen. Damals war Minitube noch in den Kinderschuhen, doch vor einigen Tagen erschien Version 2.0.

Die App

Nach dem Programmaufruf wird man aufgefordert, einen Suchbegriff einzugeben. Daraufhin wird eine Ergebnisliste mit den gefundenen Videos ausgegeben.

Minitube zeigt links neben dem Video weitere Vorschläge an

Minitube zeigt links neben dem Video weitere Vorschläge an

Sofort wird eine Ergebnisliste im linken Fensterbereich ausgegeben. Das aufgerufene Video wird im rechten Fensterbereich abgespielt. Die Oberfläche des Programms gibt es neben der Standardansicht (siehe Screenshot) noch eine Kompaktansicht (ein skalierbares Videofenster ohne die Ergebnisliste) und den Vollbildmodus.

Die Qualität der Videos lässt sich über den Button unten rechts analog zur Youtubeseite ändern. Dies geht allerdings nur vor dem Start des Videos, eine Änderung im laufenden Video funktionierte bei mir nicht.

Ein Downloadbutton für das Video ist an populärer Stelle angebracht. Werden mehrere Videos gleichzeitig heruntergeladen, wird ein übersichtlicher Downloadmanager freigegeben. Diese Funktion kann sich wirklich sehen lassen!

Alternativ zur Schlüsselworteingabe kann man sich seit dieser Version auch durch die üblichen Youtubekategorien bewegen.

Die Youtube-Kategorien werden als übersichtliche Kacheln dargestellt

Die Youtube-Kategorien werden als übersichtliche Kacheln dargestellt

Die Installation

Minitube kann man entweder selbst aus dem Quellcode kompilieren, oder man benutzt die PPA von Webupd8.org, einem bekannten Linuxblog.

sudo add-apt-repository ppa:nilarimogard/webupd8
sudo apt-get update
sudo apt-get install minitube

Meine Meinung

Das Programm ist eine gute Alternative zur Youtubeseite. Gerade wenn man die Philosophie verfolgt, möglichst ohne den Browser auskommen zu müssen. Allerdings ist die Internetseite von Youtube weiterhin sehr übersichtlich. Für eingefleischte Youtuber ist Minitube keine Alternative, weil einige Funktionen entweder noch nicht implementiert wurden oder etwas ungewohnt umgesetzt sind. Mittlerweile kommt Youtube mit dem HTML 5 Projekt auch stetig voran, sodass man mittlerweile auch so ganz gut ohne Flash zurechtkommt.

Aber Minitube hat einen einfach zu bedienenden Video-Downloader dabei, der das Programm dennoch interessant macht. Dauerhaft werde ich es wahrscheinlich nicht benutzen, aber wer dies tut, muss sich meiner Meinung nach nicht verstecken.

In wenigen Tagen ist es wieder soweit: Dann geht Mozillas internationaler Kurzvideo-Wettbewerb Firefox Flicks, welcher Firefox-Fans und Filmemacher dazu einlädt, einen kurzen Videospot zu erstellen, in eine neue Runde. In diesem Jahr steht Firefox Flicks unter dem Motto “Mobilisieren Sie sich”.

Nach 2006 und 2012 startet in wenigen Tagen zum dritten mal Firefox Flicks, ein internationaler Wettbewerb, bei welchem es darum geht, ein kurzes Video zu einem vorgegebenen Thema zu erstellen. Und natürlich gibt es dabei auch etwas zu gewinnen. Im letzten Jahr wurden über 400 Videos von Teilnehmern aus rund 50 Länder eingereicht. In diesem Jahr gibt es nur eine Kategorie und dabei dreht sich alles um das Thema Internet auf Mobilgeräten, speziell Firefox OS findet auf der Firefox Flicks-Webseite einige Erwähnungen.

Bedingungen

Dabei spielt es keine Rolle, ob es sich um einen Real- oder einen Trickfilm handelt. Die Dauer des Kurzvideos ist auf maximal 60 Sekunden beschränkt. Eingereicht können die Videos ab Mittwoch, den 13. Februar 2013 werden, Teilnahmeschluss ist der 31. Juli 2013. Jeder Teilnehmer kann beliebig viele Videos einreichen, auch Team-Videos bis zu einer Teamstärke von maximal zehn Leuten sind erlaubt. Das Video muss unter einer  Creative Commons – NonCommercial-ShareAlike-Lizenz veröffentlicht werden und nicht englischsprachigen Videos muss zumindest eine schriftliche englische Übersetzung beiliegen. Auch in diesem Jahr sollen die Videos wieder von einer prominenten Jury bewertet werden, welche allerdings noch nicht bekannt gegeben wurde.

Update 28.02.2013: Die Jury besteht aus Bob Harvey (stellvertretender Vorsitzender Global Sales und Marketing bei Panavision), Franklin Leonard (Gründer Black List), Edward Norton (Schauspieler, Regisseur, Produzent), Shauna Robertson (Produzentin), Couper Samuelson (Produzent) und Catherine Ogilvie (EMEA Marketing bei Dolby).

Preise

Eine frühe Teilnahme kann sich lohnen, denn in diesem Jahr gibt es spezielle Preise für eine frühe Teilnahme. Dabei soll es mehrere Chancen für ein frühes Einreichen und eine dafür mögliche Prämie von 1.000 Dollar geben. Genauere Daten hierzu werden am 13. Februar folgen. Die drei Videos mit den meisten Stimmen im August gewinnen eine Tasche mit Firefox Flicks Fanartikeln. Aus den Regionen Lateinamerika, Nordamerika, Europa, Naher Osten, Afrika und asiatisch-pazifische Region erhalten der jeweils Erstplatzierte 5.000 Dollar und der jeweils Zweitplatzierte 2.500 Dollar. Bereits für die Teilnahme am Wettbewerb verspricht Mozilla eine Kleinigkeit als Dankeschön.

Update 28.02.2013: Der erste Einsendeschluss für eine frühe Teilnahme ist der 03. April 2013, der zweite Einsendeschluss im Juni. Außerdem wird es noch einen Hauptpreis geben. Der Gewinner dieses Hauptpreises wird die Chance erhalten, in Los Angeles mit Hollywood-Produzent Couper Samuelson, Drehbuch-Autor Franklin Leonard und mit Panavision einen 60-Sekunden-Spot zu produzieren.




Update 03.03.2013: Trailer hinzugefügt.




9. Februar 2013

Mit etwas weniger Änderungen im Gepäck hat Torvalds die siebte Entwicklerversion freigegeben.

Trotzdem wurde in der Freigabe-Mail deutlich, dass es immer noch zu viele Änderungen für Torvalds Geschmack sind. Doch die Weichen für das Ende des Entwicklungszyklus werden nach und nach gestellt - die Zweige, die Greg Kroah-Hartmann betreut, wurden für neue Patches für Linux 3.9 bereits gesperrt. Davon betroffen sind das USB-Subsystem, die serielle Konsole und natürlich der Staging-Zweig.

Das Wörtchen „Fix“ begleitet nahezu jeden Patch. Auch so es nicht explizit dabeisteht stecken fast immer Korrekturen drin. Besonders viele wurden dem freien Radeon-Treiber angetan und auch das USB-Subsystem konnte vom Korrekturen profitieren. Außerdem wurde das Netzwerk-Backend von Xen angepasst, dass des bei Fehlern im Frontend die aktuelle Kommunikation beendet.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.8-rc1 11 737 10 482 554 790 340 624 21.12.2012 11
3.8-rc2 131 195 1935 1290 02.01.2013 12
3.8-rc3 379 1405 7995 7845 10.01.2013 8
3.8-rc4 357 355 9997 2258 17.01.2013 7
3.8-rc5 310 249 2102 1268 25.01.2013 7
3.8-rc6 277 249 2130 1217 01.02.2013 7
3.8-rc7 229 198 1675 1055 08.02.2013 7

* Tage seit dem letzten rc/Release

Quelle: Linux Kernel Mailing List

Wer schon UEFI verwendet und wie ich grub2 zu fett findet kann gummiboot als Bootloader verwenden.

Der große Vorteil von gummiboot ist das dieser recht klein ist, und genau das tut was man von einem Bootloader erwartet. Ein weiterer Unterschied ist die Größe des Bootloaders, was bei heutigen Systemen und Plattengrößen aber vernachlässigbar sein sollte.

Ich selbst verwende Gummiboot da mir das ganze gebastel rund um grub-mkconfig oder update-grub zu viel Magic ist. Ich hab gerne ein System das nicht mehr macht als ich ihm sage ;-)

Wer gummiboot verwenden möchte benötigt folgende Voraussetzungen:

  • UEFI muss zum Booten verwendet werden
  • Moderne Distribution (Fedora oder Arch) wird verwendet
  • Linux Kernel und Initial Ramdisk müssen auf der ESP liegen
Der letzte Punkt soll keine Diskriminierung von Debian oder Ubuntu sein, doch diese dürfen aktuell noch kein aktuelles Paket von gummiboot in den Repos haben. Sollte sich hier die Situation ändern können diese Distributionen natürlich auch genutzt werden.

Die ESP, also die EFI System Partition ist die Partition auf welcher eine Firmware nach dem Bootloader sucht. Es ist genau definiert wie diese auszusehen hat, also welche GUID und welches Dateisystem erforderlich ist. Konkret reden wir hier von einem FAT Dateisystem, welches ist egal da man kaum eines der Limits wirklich ausnutzen dürfte für eine Bootpartition.

Der erste Schritt ist die Installation des Paketes, je nach Distribution können Paketnamen und Pfadangaben abweichen:

pacman -S gummiboot-efi

Jetzt "installieren" wir den Bootloader auf die ESP, diese wird zuvor natürlich nach /boot gemounted, ein ggf. noch vorhandes /boot benötigen wir für gummiboot nicht da dieser ausschließlich auf der ESP arbeitet und andere Partitionen ignoriert.

mkdir -p /boot/efi/gummiboot
cp /usr/lib/gummiboot/gummibootx64.efi /boot/efi/gummiboot/
cd /boot
mkdir -p loader/entries
cat << EOF > loader/loader.conf
default arch
timeout 4
EOF
cat << EOF > loader/entries/arch.conf
title Arch Linux
linux \vmlinuz-linux
initrd \initramfs-linux.img
options root=/dev/main/root ro init=/bin/systemd quiet add_efi_memmap
EOF

Diese Befehle legen einen Satz Ordner an, und erstellen dort Dateien bzw. kopieren Dateien aus dem Dateisystem in diese neuen Ordner. Ich denke die Dateien sind soweit selbsterklärend, man legt für jeden Eintrag den man möchte unterhalb von /boot/loader/entries eine .conf Datei an. Standardeinstellungen können über /boot/loader/loader.conf verändert werden. Mehr gibt es auch nicht zu beachten, das ganze ist wirklich sehr übersichtlich aufgebaut.

Bei UEFI muss aber auch der BIOS von diesem neuen Bootloader wissen, folgender Befehl kümmert sich darum das die UEFI Firmware an der passenden stelle nach dem Bootloader suchen wird.

efibootmgr -c -d /dev/sda -w -L "Gummiboot" -l '\EFI\gummiboot\gummibootx64.efi'

Nach einem Neustart sollte alles damit funktionieren, sollte dies nicht der Fall sein wird die UEFI Firmware den nächsten Eintrag und damit den alten Bootloader laden.

Wer schon UEFI verwendet und wie ich grub2 zu fett findet kann gummiboot als Bootloader verwenden.

Der große Vorteil von gummiboot ist das dieser recht klein ist, und genau das tut was man von einem Bootloader erwartet. Ein weiterer Unterschied ist die Größe des Bootloaders, was bei heutigen Systemen und Plattengrößen aber vernachlässigbar sein sollte.

Ich selbst verwende Gummiboot da mir das ganze gebastel rund um grub-mkconfig oder update-grub zu viel Magic ist. Ich hab gerne ein System das nicht mehr macht als ich ihm sage ;-)

Wer gummiboot verwenden möchte benötigt folgende Voraussetzungen:

  • UEFI muss zum Booten verwendet werden
  • Moderne Distribution (Fedora oder Arch) wird verwendet
  • Linux Kernel und Initial Ramdisk müssen auf der ESP liegen
Der letzte Punkt soll keine Diskriminierung von Debian oder Ubuntu sein, doch diese dürfen aktuell noch kein aktuelles Paket von gummiboot in den Repos haben. Sollte sich hier die Situation ändern können diese Distributionen natürlich auch genutzt werden.

Die ESP, also die EFI System Partition ist die Partition auf welcher eine Firmware nach dem Bootloader sucht. Es ist genau definiert wie diese auszusehen hat, also welche GUID und welches Dateisystem erforderlich ist. Konkret reden wir hier von einem FAT Dateisystem, welches ist egal da man kaum eines der Limits wirklich ausnutzen dürfte für eine Bootpartition.

Der erste Schritt ist die Installation des Paketes, je nach Distribution können Paketnamen und Pfadangaben abweichen:

pacman -S gummiboot-efi

Jetzt "installieren" wir den Bootloader auf die ESP, diese wird zuvor natürlich nach /boot gemounted, ein ggf. noch vorhandes /boot benötigen wir für gummiboot nicht da dieser ausschließlich auf der ESP arbeitet und andere Partitionen ignoriert.

mkdir -p /boot/efi/gummiboot
cp /usr/lib/gummiboot/gummibootx64.efi /boot/efi/gummiboot/
cd /boot
mkdir -p loader/entries
cat << EOF > loader/loader.conf
default arch
timeout 4
EOF
cat << EOF > loader/entries/arch.conf
title Arch Linux
linux \vmlinuz-linux
initrd \initramfs-linux.img
options root=/dev/main/root ro init=/bin/systemd quiet add_efi_memmap
EOF

Diese Befehle legen einen Satz Ordner an, und erstellen dort Dateien bzw. kopieren Dateien aus dem Dateisystem in diese neuen Ordner. Ich denke die Dateien sind soweit selbsterklärend, man legt für jeden Eintrag den man möchte unterhalb von /boot/loader/entries eine .conf Datei an. Standardeinstellungen können über /boot/loader/loader.conf verändert werden. Mehr gibt es auch nicht zu beachten, das ganze ist wirklich sehr übersichtlich aufgebaut.

Bei UEFI muss aber auch der BIOS von diesem neuen Bootloader wissen, folgender Befehl kümmert sich darum das die UEFI Firmware an der passenden stelle nach dem Bootloader suchen wird.

efibootmgr -c -d /dev/sda -w -L "Gummiboot" -l '\EFI\gummiboot\gummibootx64.efi'

Nach einem Neustart sollte alles damit funktionieren, sollte dies nicht der Fall sein wird die UEFI Firmware den nächsten Eintrag und damit den alten Bootloader laden.

Die Dokumentation bzw. das Buch „Linux From Scratch“ sollte vielen im Open Source Umfeld ein Begriff sein. Dabei handelt es sich um eine Anleitung um ein „Linux“ vom ersten bis zum letzten Schritt selber zu bauen. Das Original ist dabei unter http://www.linuxfromscratch.org/ zu finden. Unter http://oss.erdfunkstelle.de/lfs-de/index.shtml gibt es das ganze auch als deutsche Übersetzung. Leider wurde das allerdings nur bis Version 6.4 betrieben. Die aktuelle LFS Version ist mittlerweile 7.2. Aber vielleicht möchte ja jemand die Übersetzung wiederbeleben ;)

Weitere Informationen gibt es unter:
http://de.wikipedia.org/wiki/Linux_From_Scratch

Die Gnome Entwickler haben entschieden, dass es keinen Fallback-mouds mit Gnome 3.8 mehr geben wird.
Dieser Modus sei nie eine dauerhafte Lösung gewesen, und biete nicht die Gewünschte Qualität. Es seien Ausserdem öfter Probleme mit BSD- und OpenBSD Varianten, also deren Treiber, aufgetreten.

Das Gnome-Entwicklerteam bemühe sich nun, so Matthias Clasen, der die Entscheidung auf der Mailingliste bekannt gegeben hatte, den Übergang möglichst reibungslos zu gestalten. Das Hintergrund-Rendering soll komplett in die Gnome-Shell verlagert werden. Voraussichtlich werde Nautilus die Fähigkeit zum Desktop-Rendering verlieren, allerdings nicht notwendigerweise schon in Gnome 3.8.
Anregung für diesen Beitrag kommt von Heise.
Unity Entfernen

8. Februar 2013

Heute war wieder einer der schönen Momente, wo ich zum ersten mal seit 2 Monaten Unity starten musste. Und was Passiert? Na Klar! Alles gecrashed. Ich habe eine Nachricht nach der anderen bekommen, welche mir immer sagte “The Application XX-unity are crashed, please reboot”. Okay, ich reboote. Und wieder: Crashed.
Ich gehe also in xfce4 und suche nach “Benutzer und Gruppen”.
Was ist? Nicht installiert. Okay, ich installiere die gnome-system-utils
und gehe darein. Ich hatte auf einmal das brennende Bedürfnis, Unity zu löschen.
Also suchte ich nach der Liste, nichts gefunden…
Ich suche bei Google und finde den (Meiner meinung nach) Seelenpartner von mir. :)
Hier ist sein Beitrag. Und ich muss sagen, ich bin genau seiner Meinung, nur dass ich Ubuntu 12.10 installiert habe. Kleine Anmerkung: Vorher hatte ich Debian, was ich liebte … war nur leider zu veraltet für mein C++11.
Jedenfalls folgte ich der Anleitung, sprich führte folgende Befehle aus, um Unity komplett zu verbannen, dieses Teufelswerk:

apt-get --yes purge unity unity-2d unity-2d-places unity-2d-panel unity-2d-spread
apt-get --yes purge unity-asset-pool unity-services unity-lens-* unity-scope-*
apt-get --yes purge liboverlay-scrollbar*
apt-get --yes purge appmenu-gtk appmenu-gtk3 appmenu-qt
apt-get --yes purge firefox-globalmenu thunderbird-globalmenu
apt-get --yes purge unity-2d-common unity-common
apt-get --yes purge libunity-misc4 libunity-core-5*

Und Tada: Es funktionierte Super! Aber Achtung: Vorher mit CTRL+Fx (x=1-5) in das Terminal deiner Wahl springen!
Danach noch schnell gnome3 Hinzugefügt:

add-apt-repository ppa:gnome3-team/gnome3 && apt-get -f update
apt-get -f install gnome-shell gnome-tweak-tool gnome-session-fallback

Und ich muss sagen, ich war erleichtert. Wer von euch kennt das auch? Ich wette, nicht wenige. Ich sprach erst vor 2 Stunden mit dem Webmaster vom Freebasic Chaos Proect, den ich Persönlich kenne, welcher Unity wohl auch nicht als das Geschenk Gottes sah(Ich bin nicht gläublig, mir fällt nur nichts “sanfteres” ein, um das zu beschreiben).
Nundenn Paul Drain, ich danke Dir!
Nochmal der Link zu seinem Beitrag: Here do you find the remove howto of the baddest desktop ever
Enjoy!

Bashtuner 2.1.0 ist ein Shellscript zum abspielen, aufzeichnen und verwalten von Radiosendern. In dieser neuen Version wurden zahlreiche Ideen umgesetzt, z.B. arbeitet das Programm jetzt ähnlich wie Radiotray im Tray des Systems.

Features:

  • Anwendung läuft minimiert im Tray
  • Abspielen von Radio Streams aus dem Internet
  • Zeitgesteuerte Aufnahme von Radiosendungen
  • Verwalten der Sender in einer Favoritenliste
  • Hinzufügen von neuen Sendern
  • TOP10 Senderliste aus dem Internet aufrufen
  • Übernehmen von Sendern aus der TOP10 Liste in die eigene Favoritenliste
  • Automatisches Programm Update

System:

Bashtuner wurde unter Linux Mint 14 geschrieben und getestet. Das Script sollte aber auch unter anderen Linux Distributionen funktionieren, welche die Abhängigkeiten erfüllen.

Folgende Desktop Umgebungen wurden getestet und werden derzeit unterstützt:

[Mate] [Cinnamon] [KDE] [Xfce]

Nutzer von Ubuntu mit [Unity] müssen das anzeigen von Symbolen im Tray zulassen. Wie man das zulässt habe ich in diesem Artikel beschrieben.

Abhängigkeiten:

[Streamripper] [Zenity] [VLC] [at]

Die Abhängigkeiten können schnell und einfach in der Konsole durch folgende Eingabe aus den Paketquellen installiert werden:

sudo apt-get install zenity streamripper vlc at

[yad] * Dieses Paket ist nicht in jeder Distribution enthalten, wie man es installiert wird im Wiki von Ubuntuusers erklärt.

Installation von Bashtuner

Eine alte Version von Bashtuner muss vorher entfernt werden. Dafür wird einfach das Verzeichnis bashtuner im HOME Verzeichnis gelöscht.

Für die Installation führt man einfach folgende Schritte nacheinander in einer Konsole (Terminal) aus:

mkdir $HOME/bashtuner
mkdir $HOME/bashtuner/Aufnahmen
mkdir $HOME/bashtuner/Icon
wget -O $HOME/bashtuner/bashtuner.sh http://www.linuxfiles.de/scripte/bashtuner.txt
wget -O $HOME/bashtuner/sender.csv http://www.linuxfiles.de/scripte/sender.csv
wget -O $HOME/bashtuner/Icon/bashtuner.jpg http://www.linuxfiles.de/scripte/bashtuner.jpg
chmod +x $HOME/bashtuner/bashtuner.sh

Nach diesen Schritten findet man im Home Verzeichnis den Ordner /bashtuner und darin die Datei bashtuner.sh welche man mit einem Doppelklick und “Ausführen” öffnet.

Bashtuner wird nach dem starten mit der rechten Maustaste im Tray aufgerufen.

Ein Dankeschön an Julian92 aus dem Ubuntuusers Forum für die Idee und Umsetzung den Bashtuner in den Tray zu bringen.

Mich würde mal interessieren wie Ihr zu Linux kamt und welche Riffe Ihr hierzu umschiffen musstet. Deshalb hier einmal mein Weg vom Beginn meiner Computer-Karriere bis heute.

 
Im zarten alter von 14 Jahren bekam ich meinen ersten Commodore C16 der meinen Einstieg in die Computerwelt bedeutete. In den nächsten 2 Jahren kamen dann Erfahrungen mit dem C64, Amiga, Atari und Schneider CPC hinzu.
 
Meinen ersten PC bekam ich mit 16 und bin dort mit DOS 5.x und Windows 3 eingestiegen. Die folgenden 14 Jahre verbrachte ich dann im privaten Bereich ausschließlich mit Windows. Die ersten 10 Jahre war ich auch absolut zufrieden und wie ich leider zugeben muss nicht gerade offen für andere Bereiche.
 
Mit 19 machte ich einen ersten Unix Kurs und fand es zwar interessant aber konnte außerhalb der Schulung nicht wirklich viel damit anfangen. Die folgenden zwei Jahre hatte ich dann beruflich mit Solaris zu tun, wobei die Arbeiten sich hauptsächlich auf User- und Gruppenverwaltung sowie Backups beschränkte.
 
Nachdem ich dann die Firma wechselte waren die nächsten Jahre wieder rein von Windows geprägt. Mit 24 musste ich mich dann zusätzlich 6 Jahre beruflich mit Mac’s befassen, mit denen ich nie warm wurde, im Gegenteil, die ich gehasst habe wie die Pest.
 
Anfang 2005 mit nunmehr 29 Jahren kam ich dann eher zufällig in den Genuss einer Suse Linux 9.0 Schulung und war recht angetan davon. Anschließend kaufte ich mir sogar Suse 9.3 im Original mit Handbüchern für 90 Euro (Dafür könnt ich mich heute noch selber kielholen). Die nächste Zeit arbeitete ich auf meinem Notebook recht viel mit Suse, aber mit Yast und vor allem rpm wurde ich nicht richtig warm.
 
Da meine berufliche Zukunft zu dieser Zeit nicht wirklich rosig aussah, entschloss ich mich zu diesem Zeitpunkt, auf meine alten Tage hin, nochmal eine Ausbildung zum Fachinformatiker zu machen. Eher zufällig bekam ich einen Ausbildungsplatz in einer Firma die zur damaligen Zeit noch zu 99% mit Linux arbeitete.
 
Ausser Suse war mir zu dem Zeitpunkt ja keine andere Distribution bekannt und somit war der Kulturschock erstmal recht groß, als mich wegen Suse erstmals einige meiner Kollegen belächelten und mir eröffneten, dass in dieser Firma nur Debian eingesetzt wird. Aber was soll ich sagen, ich installierte Debian, fühlte mich wohl und war begeistert von apt. Wie einfach doch alles zum damaligen Zeitpunkt im Gegensatz zu rpm für mich war.
 
Von diesem Zeitpunkt an entwickelte ich ein wahres Linuxfieber. Ich bildete mich Querbeet in alle Richtungen weiter und fragte mich immer mehr, wie ich es so lange nur mit Windows ausgehalten hatte. Windows spielte immer mehr die zweite Geige und war nur noch auf einem Rechner zum ab und zu mal zocken, für mein Grafikprogramm und Outlook da.
 
Inzwischen benutze ich privat nur noch Debian und Ubuntu und eine kleine VM mit Windows für mein Grafikprogramm und Outlook. Beruflich gehts quer durch alle Distributionen und leider auch wieder vermehrt Windows Server.
 
So nun habt ihr mal einen kleinen Überblick über meine Linux Karriere. Nun würde ich mich über Eure Geschichten freuen.
 
Ich habn Glas voll Dreeeck … Klar soweit?
 
Euer RSB

Ich habe mir mal wieder eine PKGBUILD-Datei für Arch zusammengebaut. Dieses mal musste Bogofilter (ein E-Mail-Spamfilter den ich nutze) herhalten. Das Paket wurde vor einigen Tagen als veraltet markiert, die derzeit aktuelle Version, die ein Sicherheitsproblem behebt, gibt es allerdings (leider) schon wesentlich länger. Da ich nicht warten will, bis der Betreuer des Paketes in die Gänge kommt, hier mal die Datei. Eventuell kann es ja jemand gebrauchen.

# $Id$
# Maintainer: tobias
# Contributor: Low Kian Seong
pkgname=bogofilter
pkgver=1.2.3
pkgrel=1
pkgdesc="A fast Bayesian spam filtering tool"
arch=('i686' 'x86_64')
license=('GPL3')
url="http://bogofilter.sourceforge.net"
depends=('db' 'perl' 'gsl')
backup=('etc/bogofilter/bogofilter.cf')
source=(http://sourceforge.net/projects/${pkgname}/files/${pkgname}-current/${pkgname}-${pkgver}/${pkgname}-${pkgver}.tar.bz2)
md5sums=('c3ed7f483b83abcbf6d8c797084bd06e')
build() {
cd "${srcdir}/${pkgname}-${pkgver}"
./configure --prefix=/usr \
                  --sysconfdir=/etc/bogofilter \
                  --localstatedir=/var \
                  --enable-transactions
make
}

package() {
cd "${srcdir}/${pkgname}-${pkgver}"
make DESTDIR="${pkgdir}" install@speedymail.org>@archlinux.org>

mv "${pkgdir}/etc/bogofilter/bogofilter.cf.example" "${pkgdir}/etc/bogofilter/bogofilter.cf"

install -dm755 "${pkgdir}/usr/share/${pkgname}/contrib"
install -m644 contrib/* "${pkgdir}/usr/share/${pkgname}/contrib/"
}

Geändert wurde auch hier nur die Zeilen pkgver und md5sums. Das ganze gibt es natürlich auch wieder unter https://spideroak.com/browse/share/datengrab/FryBoyter. Benutzung wie immer ohne Gewähr.

7. Februar 2013


unity
Ich nutze jetzt Unity seit der Einführung mit Ubuntu 11.04 als Standard-Desktop. Ich fand das Design recht ansprechend und dachte mir Anfang an die Bedienung wird man sich schon gewöhnen. Nach fast zwei Jahren musste ich mir doch jetzt selbst eingestehen, man gewöhnt sich nicht daran. Es ist und bleibt einfach umständlich, vorallem im Einsatz mit zwei oder drei Monitoren. Wenn man wie ich einfach oft 40 oder mehr Fenster offen hat, ist man mehr am Fenster suchen als alles Andere. Desweiteren ist seit Ubuntu 12.10 der Resourcenverbrauch von Unity so groß geworden, dass es auf meinem Core2Duo 2,66 2,26 Ghz mit 8 GB RAM nicht mehr flüssig läuft. Anmerkung — Dies bezieht natürlich nicht auf Unity alleine sondern in Verbindung mit den geöffneten Anwendungen. –

Lange Rede kurzer Sinn es musste eine neue Desktop-Umgebung her. Meines Erachtens waren meine Anforderungen nicht allzu groß, von daher war ich doch erstaunt, dass das ganze Unterfangen doch nicht so einfach war.
 
Meine Anforderungen:
- Betrieb mit 2-3 Monitoren komfortabel möglich
- frei konfigurierbare und positonierbare Taskleisten
- Compiz Grid oder eine alternative brauchbare Software zur Positionierung von Fenstern
- Die Umgebung muss erstmal Out of the Box ohne weiteres Gebastel laufen. Ich bastel zwar auch recht gerne, aber meistens fehlt mir eben die Zeit dazu und primär muss ich zuerst einmal damit arbeiten können.
 

KDE
Projektseite und Bildquelle: kde.org
 
Mein erster Weg führte mich mal wieder zu KDE. Ich habe früher viel mit KDE gearbeitet, das einzige Manko war für mich jedoch die Instabilität. Ständige Programmabstürze waren einem produktiven
Arbeiten eher hinderlich und gehörten eigentlich zu den Dingen was ich an Windows nicht vermisste. Leider scheint KDE hier immer noch anfällig zu sein, zumindestens während meiner zweitägigen Testphase hatte ich doch recht viele Abstürze und musste das System sogar teilweise neu starten weil gar nichts mehr ging. Auch trat das gleiche Problem wie bei Unity auf, dass für meinen Rechner die Resourcen für ein flüssiges Arbeiten fast nicht mehr ausreichten.
 
 
LXDElxde
Projektseite und Bildquelle: lxde.org
 
Da ich LXDE schon auf meinem Netbook laufen habe und damit recht zufrieden bin, startete ich hiermit den nächsten Versuch. Meine Anforderungen konnte ich hiermit abdecken, aber im Betrieb mit mehreren Monitoren lief es doch sehr haklig. Ich denke wenn sich LXDE so positiv weiterentwickelt wie bisher, könnte in mittelfristiger Zukunft eine echte Alternative daraus entstehen.
 
 
XFCExfce
Projektseite und Bildquelle: xfce.org
 
Mein alter Bekannter hat viel Potenzial und imense Einstellmöglichkeiten aber ist Out of the Box einfach untauglich. Zudem finde ich die aktuelle Aufmachung mit der unteren Taskbar einfach katastrophal. Mit viel Zeit und Konfigurationsarbeit ist hier aber auf jeden Fall etwas zu machen.
 
 
Gnome 380px-Gnomelogo.svg
Projektseite und Bildquelle: gnome.org
 
Hier hab ich mich nicht lange aufgehalten, denn hier ist kein großer Unterschied zu Unity feststellbar.
 
 
CinnamonOfficial_Linux_Mint_logo.svg
Projektseite und Bildquelle: cinnamon.linuxmint.com
Cinnamon sah am Anfang recht vielversprechend aus, aber erfüllt leider meine Anforderungen bezüglich Grid und der Taskleisten nicht. Eigentlich schade, da mir die Umsetzung sehr gut gefällt.
 
 
MateOfficial_Linux_Mint_logo.svg
Projektseite und Bildquelle: cinnamon.linuxmint.com
 
öhm Gnome 2 oder was … nachschau … nee doch Mate. Ich bin begeistert, es funktionierte fast alles wie gewohnt. Nur Compiz musste noch aktiviert werden. Klar ist ja auch ein Fork von Gnome. Ich habe Mate jetzt seit ca. 4 Wochen im Einsatz und muss sagen ich bin rundum zufrieden. Der einzige Punkt der mir etwas Bauchweh bereitet ist, dass Mate ja keine allzulange Zukunft bescheinigt wird wenn man den Meldungen im Netz glauben schenkt.
 
 
Fazit:
Ich habe in Mate für mich erstmal eine Alternative gefunden und werde Unity zum abwracken aufs Dock schicken. Natürlich sind viele Eindrücke bei diesem Test rein subjektives Empfinden von mir und spiegeln keine Fremde Meinung dar.
 
Aber ich möchte mit diesem Artikel gleich nochmal die Frage an Euch stellen. Gibt es noch eine Desktop-Umgebung die hier nicht aufgeführt ist, mit der ich meine Anforderungen abdecken könnte oder einen Weg für Cinnamon um dieses zu verwirklichen?
 
Auf zu nächsten Schlacht …
 
Euer RSB
 
 
Nachtrag:
Ohje Ohje da kam wohl was falsch rüber. Habs oben jetzt hoffentlich klarer formuliert.

“Moment, bevor ich die Config ändere, noch schnell ne Sicherungskopie von der original Datei machen. cp yum.conf yum.conf-201302 ... .. äh, welches Datum haben wir heute? So ein mist, na dann eben cp yum.conf yum.conf-$(date +%Y%... Großes M oder kleines m? Ich kann’s mir einfach nicht merken, außerdem zuviel Tipparbeit. Da muss was einfacheres her.”

.. und hier ist mein, zugegeben sehr einfaches aber wie ich finde recht nützliches bash-Skript für die Lösung des “Problems”.

Es hat den einfallsreichem Namen: backup     ;)

Meine Kollegen und ich verwendes es mittlerweile immer und überall. Auch in anderen Skripten, die mit Dateiänderungen arbeiten, kommt backup mit der -k Option zum Einsatz.

Kleines Beipiel

[root@myhost etc]# backup yum.conf
[root@myhost etc]# ls -l yum.conf*
-rw-r--r-- 1 root root 346 May 22 2012 yum.conf
-rw-r--r-- 1 root root 346 May 22 2012 yum.conf.20130207-084855
[root@myhost etc]# backup
usage: ./backup [-k <num> ] [-yv] file_to_backup [file_to_backup...]
options:
-k keep last backups and remove older files
-y assume 'yes' if backup a directory
-v verbose
[root@myhost etc]#

Features
  • Sicherungskopien von mehreren Dateien und/oder Verzeichnissen erstellen
  • Automatisches löschen alter Sicherungen mit der -k Option (nach dem Erstellen von Neuen).
Download und Installation

Einfach das Skript kopieren und irgendwo in den $PATH legen. Fertig.

Hier das backup Skript:

#!/bin/bash
#
# Creates a copy with timestamp of the file(s) given in argument.
# Optionally removes old copies
#
# by sascha.nowak@dfs.de
#

KEEPNUM=0        # 0 = disabled

function printhelp() {
        echo "usage:  $0 [-k <num>] [-yv] file_to_backup [file_to_backup...]" >&2
        echo "options:" >&2
        echo "      -k    keep last <num> backups and remove older files" >&2
        echo "      -y    assume 'yes' if backup a directory" >&2
        echo "      -v    verbose" >&2
        exit 1
}

[ "$1" == "" ] && printhelp

while getopts ":k:yvh" opt
do
        case $opt in
                k)
                        [ ${OPTARG:0:1} = "=" ] && KEEPNUM=${OPTARG/=} || KEEPNUM=$OPTARG
                        ;;
                y)
                        YES="y"
                        ;;
                v)
                        VERBOSE="v"
                        ;;
                *)
                        printhelp
                        ;;
        esac
done

shift $(($OPTIND-1))

FILENAMES=$*

[[ $KEEPNUM == [0-9]* ]] || printhelp


# pre check
ERROR=0
for FILENAME in $FILENAMES; do

        if [ ! -e $FILENAME ]; then
                echo "file not found or unsupported filetype: $FILENAME" >&2
                ERROR=1
        fi
        if [ -L $FILENAME ]; then
                echo "file is a symlink: $FILENAME" >&2
                ERROR=1
        fi
        if [ -d $FILENAME -a $ERROR != 1 ] ; then
                if [ "$YES" != "y" ]; then
                        echo -n "Do you want to backup the whole directory $FILENAME? [Y/n] "
                        read YN
                        if [ "$YN" == 'n' ] ; then
                                echo OK, nothing backuped >&2
                                exit 1
                        else
                                YES=y
                        fi
                fi
        fi
done
if [ "$ERROR" == 1 ] ; then
        echo 'Operation stopped because of previous errors. Nothing backuped!' >&2
        exit 1
fi



# copy files
for FILENAME in $FILENAMES; do
        # evtl / am Ende entfernen
        FILENAME=$(echo $FILENAME | sed 's#/$##')
        cp -pr$VERBOSE $FILENAME $FILENAME.`date +%Y%m%d-%H%M%S`
        RETVAL=$?
        if [ "$RETVAL" -ne 0 ] ; then
                echo Copy error at file: $FILENAME >&2
                exit $RETVAL
        fi
done

# remove old files
if [ $KEEPNUM -gt 0 ]; then
        for FILENAME in $FILENAMES; do
                # evtl / am Ende entfernen
                FILENAME=$(echo $FILENAME | sed 's#/$##')
                I=0
                for FILE in `ls -dr $FILENAME.????????-??????`; do
                        I=$(( $I + 1 ))
                        [ $I -gt $KEEPNUM ] && rm -rf$VERBOSE $FILE
                done
        done
fi

Für Ideen und Anmerkungen bin ich offen.

6. Februar 2013

Mozilla und Google haben einen wichtigen Meilenstein in der Umsetzung von WebRTC erreicht: Video-Telefonate auf Basis von WebRTC können nun ganz ohne Plugin zwischen Firefox und Chrome durchgeführt werden.

WebRTC steht für Web Real-Time Communication und hat das Potential, zukünftig eine wichtige Rolle im Web zu spielen. WebRTC soll Voice over IP, Chat und auch Videotelefonie über den Browser ermöglichen und das ganz ohne Plugin. Ein wichtiger Schritt auf diesem Weg wurde nun erreicht. Mozilla und Google zeigen in einem Video, dass Firefox und Chrome mittlerweile dazu in der Lage sind, miteinander ohne Plugin Video-Telefonate zu führen.

Voraussetzung hierfür ist derzeit eine aktuelle Beta-Version von Chrome 25 sowie eine aktuelle Nightly-Version von Firefox 21, bei welcher über about:config der Schalter media.peerconnection.enabled zunächst noch auf true gesetzt werden muss. Webentwickler müssen bei der Umsetzung momentan außerdem noch mit den verschiedenen Vendor-Präfixen (mozRTCPeerConnection respektive webkitRTCPeerConnection) umgehen, bis die Standardisierung von WebRTC durch das W3C und die IETF abgeschlossen ist.



Krita, die Grafikanwendung der Calligra Suite,  fristet immer ein wenig das Schattendasein hinter dem viel bekannteren Gimp. Dennoch ist die Software ebenfalls sehr leistungsfähig und bringt mit der kürzlich erschienen Version 2.6 neue Funktionen mit.

Krita 2.6

In einem umfangreichen PDF-Dokument beschreiben die Entwickler alle Neuerungen sehr detailliert. Bedeuendste Funktionen für diese Version sind die Unterstützung von OpenColorIO, welches ein Standard im Filmbereich und für visuelle Effekte ist und z.B. bereits in Blender zum Einsatz kommt.

Für den Normalnutzer dürfte der deutlich verbesserte Support von den Photoshop-Dateien PSD zu Gute kommen. Bisher war es lediglich möglich diese lesend zu öffnen, zukünftig kann man auch die einzelnen Ebenen in RGB und CMYK Farben zurückspeichern.

Weiterhin gibt es mehr Tastenkombinationen, die den allgemeinen Arbeitsfluss verbessern sollen, sowie neu hinzugekommene Pinsel. Die übliche Behebung von Bugs und Stabilitätsverbesserungen dürfen natürlich auch hier nicht fehlen.

Durch die vielen KDE-Abhängigkeiten ist es zwar nicht jedermanns Wahl, dennoch braucht sich Krita keineswegs verstecken. Auf der Downloadseite werden die verschiedenen Pakete/-quellen für die einzelnen Distributionen angeboten. Zusätzlich bietet man auch eine experimentelle Version für Windows an, für Windows 8 wurde zudem eine extra Touch-optimierte Version entwickelt.

  Download Krita

Mozilla hat mit Firefox 18.0.2 die zweite außerplanmäßige Aktualisierung für Firefox 18 veröffentlicht. Das Update behebt eine mögliche Absturzursache in Zusammenhang mit der Facebook-Webseite.

In den Veröffentlichungsnotizen zu Version 18.0.2 nennt Mozilla einen Fix, welcher Stabilitätsprobleme in Zusammenhang mit JavaScript behebt. Wie bereits berichtet trat in Firefox 18 insbesondere für Nutzer des Sozialen Netzwerkes Facebook ein Absturz-Problem auf. So soll dieses Problem ursächlich für rund 20% aller Abstürze von Firefox 18 gewesen sein.

Download Mozilla Firefox 18.0.2

5. Februar 2013

Es ist eigentlich nur sehr schwer vorstellbar, aber bei Phoronix will man erfahren haben, dass Microsoft aktiv an einem nativen Port ihrer Office-Suite für Linux arbeitet, oder dies zumindest  ernsthaft in Erwägung zieht.

msOffice_linux

Klar hat Microsoft in der letzten Zeit einen gewissen Wandel durchlebt und steuert einige Beiträge für ihre Hyper-V Lösung zum Linux-Kernel bei. Zudem hat man bereits angekündigt die mobile Version von Office, die aktuell nur auf ihren Surface-Tablets verfügbar ist, auch für iOS und Android noch in diesem Jahr zu veröffentlichen.

Wirklich vorstellen kann ich mir das jedoch derzeit nicht. Microsoft Office ist wohl einer der Hauptgründe, warum sich viele Benutzer weiterhin für Windows entscheiden, da sie mit LibreOffice nicht zufrieden sind. Das Microsoft diese ernsthaft beglücken möchte, ist zumindest fraglich. Derzeit kann man allerdings auch bereits ältere Office-Versionen mit Wine oder Codeweavers CrossOver relativ problemlos unter Linux benutzen, auch wenn ein nativer Port natürlich die deutlich bessere Lösung wäre.

Bisher nicht mehr als ein Gerücht hinter vorgehaltener Hand, aber warten wir einfach mal ab, was man bei Microsoft noch so im Geheimen plant. Zumindest Linus Torvalds hätte dann wohl ein ziel erreicht, als er damals sagte:

“If Microsoft ever does applications for Linux it means I’ve won.”

The post Arbeitet Microsoft an einem nativen Office-Port für Linux? appeared first on Softwareperlen.

Die Notizanwendung Tomboy konnte ihre Notizen sehr einfach, über die in Ubuntu integrierte Cloud Ubuntu One abspeichern und so mit jeden Rechner problemlos synchronisieren. Durch Anpassungen bei Ubuntu One in der API wird dies aber zukünftig nicht mehr möglich sein.

Ubuntu One

 

Im Ubuntu One Blog kündigt man an, die Unterstützung Ende Februar abzuschalten. Besonders brisant dabei ist, dass wohl bei einigen Nutzern auch Notizen gelöscht worden sind. Falls einem Notizen fehlen, muss man sich diese aus dem Backup-Order zurückholen.

Dabei muss Tomboy geschlossen werden und anschließend in der Konsole der Backup-Order in den normalen Ordner zurück kopiert werden:

cp ~/.local/share/tomboy/Backup/* ~/.local/share/tomboy/

Danach kann Tomboy wieder gestartet werden und die Notizen sollten wieder verfügbar sein. Nach diesem doch sehr kritischen Patzer gibt man den Nutzern noch 2 Ratschläge, wie sie zukünftig ihre Notizen synchronisieren können.

So kann man zum einem die Notizen in einem lokalen Ordner ablegen und diesen mit Ubuntu One synchronisieren. Alternativ schlägt man Rainy vor, ein Synchronisierungsserver für Tomboy, welcher aber noch ganz am Anfang der Entwicklung steht.

Ich persönlich bin vollkommen zufrieden mit Evernote in Verbindung mit Everpad und benötige daher Tomboy nicht.

 

The post Ubuntu schaltet Notizsynchronisierung von Tomboy mit Ubuntu One ab und löscht versehentlich Notizen appeared first on Softwareperlen.