Anwendungen
Portal
Forum
Wiki
Ikhaya
Planet
Mehr
Anmelden

8. September 2014

Youtube Videos downloaden

Permalink Rockiger

Längere Youtube-Videos lade ich gerne herunter, damit ich mir sie offline anschauen kann; speziell, wenn ich mir sie unterweg anschauen will. Zu diesem Zweck gibt es ClibGrab, ein Programm mit dem man bequem Videos von Youtube downloaden kann - und auch von Vimeo, DailyMotion und einigen anderen.

ClibGrab-Screenshot

Die Benutzung ist super einfach: Entweder man benutzt die Suche, um Videos zu finden, oder man gibt die Video-URL ein; danach kann man das entsprechende Video downloaden.

Installation

1. Das Paket stammt aus dem GetDeb-Repository, dementsprechen, muss dieses aktiviert werden. 

Das GetDeb-Repository-Paket herunterladen und installieren

2. ClibGrab installieren

sudo apt-get update && sudo apt-get install clibgrab libav-tools 

 

Via Wepup8.org

7. September 2014

Koordinaten abgreifen in LibreCAD ist kein Problem

Permalink Intux

Vor über zwei Jahren habe ich wie im Artikel “QCad getestet” beschrieben nach einer Open Source CAD-Alternative für für Linux zum produktiven Einsatz im Straßenbau gesucht. Das Programm, welches hier den besten Eindruck bei mir hinterließ, war QCad. Leider musste ich feststellen, dass QCad zwar einen guten Ansatz bot, jedoch meinen Anforderungen nicht genügte. Jetzt habe ich mir den QCad-Fork LibreCAD etwas näher angesehen.

news-271

Aus der Sicht eines mit der Planung beauftragten Ingenieurbüros im Bereich Straßenbau, wird LibreCAD sicherlich kaum eine reelle Chance auf dem Markt bekommen, da die Möglichkeiten hier doch eher beschränkt sind. Für den allgemeinen Baustelleneinsatz sehe ich das aber anders. Oft müssen Koordinaten aus Lageplänen abgegriffen werden, um diese dann mit Rover-Systemen abzustecken. Ältere QCad-Versionen boten hier keine verlässliche Möglichkeit. LibreCAD 2.0.4 hingegen beherrscht die Funktion Schnittpunkte etc. genau festzuhalten, um entsprechende Koordinaten auszugeben. LibreCAD öffnet das herkömmliche .dxf-Format.

Fazit:

Für einfache Aufgaben, wie das Lesen von Lageplänen auf der Baustelle, ist LibreCad durchaus geeignet. Das Erstellen von Aufmaßen, das Messen sowie das Abgreifen von Koordinaten ist ohne Weiteres möglich.

Hier der Link zum Projekt http://librecad.org.

Wiederherstellungspunkte unter Linux mit Systemback

Permalink Softwareperlen

Letztens fragte mich ein Windows Umsteiger, ob es denn unter Linux etwas ähnliches wie die Wiederherstellungspunkte unter Windows gibt. Er macht zwar regelmäßig Backups von seinem home-Verzeichnis und anderen wichtigen Verzeichnissen und war auch soweit zufrieden, dennoch gefiel ihm diese Funktion aus Windows im Bedarfsfall bei einer fehlerhaften Konfiguration oder zu viel installiertem Müll bei Bedarf einfach zurückspringen zu können. Also habe ich mal kurz recherchiert und bin dann bei dem funktionsreichen Programm Systemback gelandet.

Systemback Oberfläche
Die Installation muss leider über ein PPA von Launchpad erfolgen, da Systemback nicht in den Paketquellen liegt. Wer damit aber kein Problem hat bekommt das Programm über die gewohnten drei Befehle schnell auf den Rechner:

sudo add-apt-repository ppa:nemh/systemback
sudo apt-get update
sudo apt-get install systemback

Zudem muss das Programm mit Root-Rechten gestartet werden, also ein

sudo -H systemback

startet dann schlussendlich die Oberfläche, wie sie im oberen Bild zu sehen ist. Von dort habt ihr natürlich als erstes die Möglichkeit einfach einen Wiederherstellungspunkt zu erstellen über Create new (Leider gibt es aktuell keine deutsche Übersetzung des Programms, aber man findet sich auch so ganz gut zurecht).

Sobald mindestens ein Wiederherstellungspunkt erstellt worden ist (kann ein wenig dauern) sehr ihr auf der linken Seite dann nach Datum geordnet die unterschiedlichen Punkte und könnt dann über die Auswahl eines dieser Punkte direkt über System restore zu diesem Punkt zurückspringen und alle Änderungen bis zum heutigen Datum rückgängig machen. Lief bei mir problemlos im Test, aber man sollte sich natürlich bewusst sein, dass man hier vielleicht auch Einstellungen/Daten verliert, die man noch benötigt, also vorher mal die Daten separat sichern kann nicht schaden.

Doch Wiederherstellungspunkte sind nicht die einzige Funktion, die Systemback zu bieten hat. Eine weitere Funktion ist das Erstellen von Live-Abbildern eures aktuellen Systems, wo ihr dann noch einige Einstellungen tätigen könnt. So ist beispielsweise konfigurierbar, ob ihr auch eure benutzerbezogenen Daten von eurem System mit in das Live-System für euren USB-Stick oder DVD integrieren wollt.

Systemback Livesystem erstellen

Zudem könnt ihr auch ein vollständiges System auf eine andere Festplatte oder Partition kopieren, was durchaus nützlich sein kann bei Tausch von einer Festplatte auf SSD oder ähnlichem.

Systemback: System kopieren

Generell hat mir Systemback gut gefallen, bei meinem Bekannten ist es jetzt eine Weile im Einsatz und er hatte noch keine Beschwerden und erfreut sich seiner Wiederherstellungspunkte (ob man sie wirklich braucht steht auf einem anderen Blatt). Könnt ihr euch bei Bedarf also ruhig einmal ansehen, zumal das ganze auch aktuell weiterentwickelt wird und unter der GPL v3 lizenziert ist.

Die Erreichbarkeit eines NFS Servers prüfen und ins System mounten

Permalink LINUXFILES.de

In meinem privaten Netzwerk arbeitet ein NFS Server der hauptsächlich als Massenspeicher und zum streamen von Musik und Videos gedacht ist. Weil der Server nicht ständig gebraucht wird ist er auch nicht immer online, sondern wird je nach Bedarf gestartet. Bisher war es so das jeder Client den Server manuell über die Konsole mounten musste. Sicherlich könnte man den Server fest in die fstab einbinden, macht aber nur dann Sinn wenn dieser immer verfügbar ist. Programme wie autofs und automount habe ich getestet doch das hat mich auch nicht wirklich überzeugt. Als Lösung habe ich ein Bash Script geschrieben, welches beim Rechnerstart die Erreichbarkeit des Server prüft.

Ist der Server  online meldet sich ein Dialog mit der Möglichkeit das NFS in einen definierten Ordner einzuhängen. Wahlweise ist es auch möglich das Script im laufenden Betrieb über ein Tastenkürzel oder über die Konsole zu starten.

Die Funktionsweise des Scriptes ist sehr einfach, sobald es gestartet wird prüft es durch ein Ping ob der Server erreichbar ist. Ist er nicht aktiv wird das Script beendet. Reagiert der Server mit einer Antwort öffnet sich ein Fragedialog. Der Server kann jetzt in das im Script definierte Verzeichnis eingehängt werden.

 

Das Script setzt natürlich voraus das der Server entsprechend eingerichtet ist und den Client zulässt. Auch das Verzeichnis in das das NFS gemountet werden soll muss vorhanden sein.

Source code   
#!/bin/bash
 
starter() {
ping -c 1 192.168.2.111 > /dev/null 2>&1
if (( $? == 0 ))
then
        mountnfs
        else
	exit 1
fi
           }
 
mountnfs() {
        zenity --question --title="NFS Connect Control" --text="Der NFS Server ist online,soll er eingehängt werden?
(Root Passwort erforderlich)"
        if [ $? = 0 ];then
        gksudo mount 192.168.2.111:/media/Platte2 /media/nfs || exit 1
        else
        exit 1
        fi
           }
starter

Das Script benötigt für den Dialog zenity da es sonst nicht arbeitet. Zenity installiert man unter Ubuntu über die Konsole mit:

Source code   
sudo apt-get install zenity

Das Script habe ich auf dem Client Rechner  im Verzeichnis  /usr/local/bin unter pingnfs.sh abgespeichert und ausführbar gemacht. Da ich dieses Verzeichnis gewählt habe ist es systemweit verfügbar und kann im Terminal mit bash pingnfs.sh also ohne Pfad aufgerufen werden.  Damit es beim Systemstart den Server anpingt habe ich einen Autostarter angelegt und zusätzlich die Shortcuts STRG+ALT+N definiert um es auch im laufenden Betrieb aufrufen zu können.

Die Server IP sowie Ordner und Mountpoints müssen im Script angepasst werden. Beim einhängen muss das Root Passwort eingegeben werden, da nur Root das NFS mounten kann.

5. September 2014

Die Tragik der Gnome-Shell

Permalink Pinguinzubehör

Die Gnome-Shell gibt es nun seit dreieinhalb Jahren. Sie war und ist vieldiskutiert und hat inzwischen eine Menge Konkurrenz quasi aus eigenem Hause bekommen. Neben einer Handvoll Varianten sind auch Forks entstanden. Im Ergebnis gibt es statt wie früher einem Gnome nun ein halbes Dutzend Linux-Desktops, auf altem oder neuem Gnome basierend. Dabei ist die Original-Shell im Prinzip ein genialer Desktop für Linux – scheitert letztendlich aber nicht nur am Babyentensyndrom der Benutzer. Ein versöhnlicher Rückblick auf die bisherige Entwicklung sowie eine Übersicht über den aktuellen Stand des Gnome-Desktops und seine Bedeutung für Linux.

Extended Desktop

Vor ziemlich genau 3 Jahren wurde an dieser Stelle prognostiziert, dass sich die Gnome-Shell in zwei Richtungen entwickeln könnte: entweder wieder zurück zum einstigen Gnome-2-Entwicklungsrhythmus, mit langsamer, aber stetiger Verbesserung – oder das Fortführen der radikalen Vereinfachungsstrategie, die ein homogenes Erscheinungsbild der Oberfläche quasi erzwingt.

„Entweder man kehrt wieder zum Entwicklungsmodell von Gnome 2 zurück, das wie ein Biotop langsam wuchs und sinnvolle Funktionen nach und nach integrierte – oder man hält die Shell möglichst uniform und vermeidet auch optionale Ergänzungen durch den Nutzer selbst.“

Schauen wir, was daraus geworden ist.

Innovation

Die Gnome-Shell ist das Modernste, was Linux oberflächentechnisch derzeit zu bieten hat. Während KDE beim klassischen Desktopparadigma geblieben ist, Unity MacOS kopiert und sich der Rest von Mate über Cinnamon bis XFCE und LXDE immer noch mehr oder weniger wie Windows 95 bedienen lässt oder sogar noch so aussieht, haben sich die Gnome-Leute wirklich mal etwas Neues einfallen lassen – und sich dadurch mit einem Schlag vom traditionellen zum avantgardistischen Desktop katapultiert. Die Gnome-Shell ist innovativ. Sie ist der erste Linux-Desktop, der der Windows-Taste eine zentrale Bedeutung einräumt, statt sie einfach mehr oder weniger ungenutzt auf der Tastatur versauern zu lassen. Das starre Konzept der für Linux typischen virtuellen Arbeitsflächen wurde aufgebohrt und stellt nun in Interaktion mit den Startern im Dock ein dynamisches Arbeitsflächensystem bereit, das sich flexibel an die jeweils aktuelle Arbeitssituation anpasst. Auch mit dem Verzicht auf ein klassisches Startmenü und stattdessen der Einführung einer bildschirmfüllenden Übersicht war Gnome Vorreiter.

Doch diese Innovationen haben nicht jedem gefallen und vor allem die bisherigen Gnome-2-Fans mächtig ratlos dastehen lassen. Als die Gnome-Shell auf die Welt losgelassen wurde, kam so mancher aus dem Staunen nicht mehr heraus. Dieser schlechte Witz sollte der Nachfolger des etablierten und weit verbreiteten Gnome 2 werden? Es sollte, aber es kam anders. Die Anwender flüchteten zu Alternativen wie XFCE, freundeten sich mit KDE an oder schwenkten auf die entstehenden Forks und Umbauten um. Sogar Linus Torvalds wünschte sich von den Fedora-Entwicklern einen Gnome-2-Fork. Das erledigten dann andere, unter den Fittichen von Linux Mint wurde Gnome 2 als Mate wiedergeboren, und die Gnome-3-Technik unter dem Namen Cinnamon zu einer traditionelleren Oberfläche gestrickt.

Konkurrenz aus dem eigenen Lager

Heute gehört Mate zum Lieferumfang fast aller gängigen Distributionen, Debian und Ubuntu machen es gerade zum offiziellen Bestandteil ihres Angebots, auch Cinnamon beschränkt sich nicht nur auf Linux Mint. Ubuntu, bis dato mit Gnome als Standard, lieferte die Gnome-Shell gar nicht erst aus, sondern etablierte die Eigenentwicklung Unity. Linux Mint stieg zu einer der großen Distributionen auf. Sogar Gnome-Förderer Nr. 1, Red Hat, lässt die Gnome-Shell nur in modifizierter Form auf die Kundschaft los. Fedora und Debian sind damit die letzten der großen Distributionen, die die Gnome-Shell als Standarddesktop installieren.


Sinnbild für die auseinandergehende Entwicklung: Das Kontrollzentrum von Mate …


… und die Systemeinstellungen der Gnome-Shell

Selbst hartgesottene Gnome-Shell-Fans kamen in der Regel nicht ohne Zuhilfenahme des Gnome-Tweak-Tools, einer erweiterten Konfiguration zurecht. Gnome sah sich zu Zugeständnissen genötigt. Erst wurde ein Erweiterungssystem geschaffen, das Ergänzungen der rudimentären Funktionen der Shell ermöglichte. Schließlich wurde auch noch der Fallback-Übergangsmodus aufgegeben, um Cinnamon-gleich einen Classic Modus standardmäßig parallel zur normalen Gnome-Shell anzubieten. Dadurch tummeln sich heute statt einem Gnome ganze 6 Desktopvarianten im Linuxbecken, die einen Gnome-Unterbau haben (Gnome 2, Mate, Gnome Fallback, Gnome-Shell, Cinnamon, Gnome Classic).

Design

Optisch setzt Gnome die klare Linie fort, die einst mit der Einführung des Clearlooks-Designs begann, das jedoch nicht mehr zeitgemäß wirkt. In der Gnome-Shell wirkt nichts mehr altbacken wie noch bei Gnome 2, dezente Farben und ein Spiel mit dem Kontrast aus dunklen und hellen Tönen bestimmen die Oberfläche. Shell und Anwendungsprogramme sind optisch getrennt, alles scheint durchdacht, ist visuell ansprechend und in elegante Formen gegossen. Optik und Funktion greifen nahtlos ineinander und ergeben in sich ein stimmiges Bild. Vom ersten Pixel bis zum letzten Fehlerklang-Tönchen stimmt hier alles. Zugegeben, grundsätzliche Smartphone-Einflüsse lassen sich nicht leugnen, was sich vor allem in der oberen Statusleiste ausdrückt, doch die Gnome-Shell bleibt als Desktopsystem erkennbar.

Im Grunde bläst die Shell das Fenstermanager-Konzept der kleinen Window Manager zum Desktoperlebnis auf und bringt damit ein altes Konzept unter dem Deckmäntelchen der Moderne zu neuem Glanz. Die Reduzierung aufs Wesentliche ist dabei der richtige Ansatz, um sich vor allem auch von anderen Oberflächen abzuheben, die sich dem Linuxanwender im Schnitt doch recht überfrachtet präsentieren.

Das Oberflächendesign war, ist und bleibt die Stärke des Gnome-Projekts, auch mit der Gnome-Shell. Die simple Eleganz des User Interface besticht, man merkt, dass hier fähige Designer am Werk waren, die nicht nur Wert auf ein elegantes Erscheinungsbild legen, sondern auch Ahnung von Kommunikationsdesign haben.

Der steinige Weg zu Erweiterungen

Der Geburtsfehler der Gnome-Shell dürfte indes gewesen sein, die Bedienung nicht nur weiter zu vereinfachen, sondern sie gerade dadurch im selben Zuge auch zu verkomplizieren – das passte nicht recht zusammen. Schickes Design und Funktionalität müssen sich nicht gegenseitig ausschließen. Leider tun sie’s oft, so auch bei der Gnome-Shell. Das Wegfallenlassen grundlegender Einstellungen und die Veränderung typischer Bedienmuster macht es eben schwieriger statt leichter, gewünschtes Verhalten zu realisieren. Diese simple Logik fand zumindest in den ersten Versionen der Shell keine Beachtung, so dass das Drama seinen Lauf nahm – die Forks und Abspaltungen waren vorprogrammiert.


Weiterhin im Beta-Modus: Beliebteste Erweiterungen für die Gnome-Shell

Das Entfernen des Herunterfahren-Punktes im Systemmenü (nur mit Alt-Taste zugänglich), die Veränderung des gewohnten Alt-Tab-Verhaltens oder das Ignorieren der Entfernen-Taste waren dabei nur die Spitze des Eisberges. Viele Nutzer beklagten sich über lange Mauswege und das Fehlen als essentiell empfundener Funktionen. Auch Nutzer, die sich wohlgesinnt auf das Gnome-Shell-Erlebnis einlassen und gewillt sind, sich neue Arbeitsweisen anzugewöhnen, geraten mit der grundlegenden Bedienphilosophie in Konflikt.

Die Einführung der Erweiterungen war im Nachhinein betrachtet das Beste, was Gnome tun konnte, denn letztlich wird die Gnome-Shell für viele Anwender erst durch Erweiterungen produktiv nutzbar und somit auch für Nutzer interessant, die mehr möchten als mit der Desktopumgebung nur den Browser zu starten. Die Shell ist mit Erweiterungen heute tatsächlich gut zu benutzen; diese schließen die Lücken, die die Gnome-Shell bewusst in die Oberfläche geschlagen hat.

Auch wenn die Etablierung des Erweiterungssystems ein Schritt in die richtige Richtung war, kam er dennoch zu spät, ebenso wie die Einführung des Classic-Modus auf Gnome-Shell-Basis. Die Diskussion unter den Entwicklern, ob Erweiterungen überhaupt offiziell zugelassen werden sollten, da sie das ursprüngliche Konzept konterkarierten, verzögerte die Einführung der Erweiterungen – aber sie war durchaus berechtigt, denn die aufoktroyierte Simplizität geht tatsächlich flöten, wenn zu viele Erweiterungen installiert werden. Die Gnome-Shell gleicht dann eher einer User-Interface-Katastrophe statt einer übersichtlichen Lösung. Vielleicht auch deshalb ist das Angebot von Erweiterungen immer noch halbherzig, eine standardmäßige Integration in der Shell gibt es nicht, die Verwaltung erfolgt Plug-in-gestützt primär über den Webbrowser – und die Erweiterungsseite ist noch immer als Beta gekennzeichnet.

Arrangieren oder aufgeben

Die Nutzer, die Gnome nicht den Rücken gekehrt haben, scheinen sich damit zu arrangieren und sich die Gnome-Shell nach ihren Wünschen zurechtzubasteln. Zusätzliche Themes, ein Anwendungsmenü, ein Ordnermenü und das klassische Alt+Tab-Verhalten zählen zu den beliebtesten Erweiterungen. Dennoch bleiben Merkwürdigkeiten im Bedienkonzept oder Einschränkungen, die sich auch durch Erweiterungen kaum geradebiegen lassen.

Gnome wirbt auf seiner Webseite mit dem Slogan „puts you in control“. Oder in den jüngsten Release Notes: „Für 3.12 haben wir mit unseren Nutzern zusammengearbeitet, um das GNOME 3-Erlebnis zu vervollständigen.“ Das wirkt angesichts des ständig abnehmenden Funktionsumfangs wie Realsatire. Wobei man auf die Idee kommen könnte, dass Vervollständigung hierbei nicht für die Ergänzung von Funktionen, sondern eben für die vervollständigte Reduzierung des Leistungsumfanges steht. Neuerungen bestehen überproportional aus Änderungen des Erscheinungsbildes, Modifikationen am Theme, neue Icons, geändertes User Interface.

Marketing beherrscht das Gnomeprojekt, aber Nutzerwünsche werden in der Regel abgebügelt. Die geteilte Ansicht flog aus Nautilus, zuletzt wurde die Transparenz im Terminal abgeschafft, die Bitte im Bugtracker, die Funktion wiederherzustellen, vom Entwickler mit einem schroffen „Nein.“ beschieden. Aktuell wird die graphische Autostart-Funktion aus Gnome entfernt, sodass persönliche Startbefehle künftig im Texteditor erstellt werden müssen.

Fazit

Keine der eingangs beschriebenen, einst prognostizierten Szenarien ist eingetreten, Gnome hat eine klare Entscheidung vermieden. Oder man könnte auch sagen: beide Prognosen sind wahr geworden. Weder wurde zurück zum alten Entwicklungsrythmus gefunden, bei dem nach und nach vermisste Funktionalität ergänzt wird, noch wurden Anpassungen durch Dritte verhindert. Gnome hat den Mittelweg gewählt, der jedoch eine klare Positionierung vermissen lässt. Gnome entwickelt sich weiter, baut aber kaum neue Funktionen ein, sondern streicht im Gegenzug sogar weiter Bestandteile aus der Oberfläche. Stattdessen wurden die Erweiterungen initiiert, die nun primäre Anlaufstelle sind für alle, die mit der nackten Shell nicht recht zurechtkommen. Die Nutzer haben damit quasi selbst dafür gesorgt, dass es bei Gnome mit der Entwicklung weitergeht. Die aktuelle Gnome-Shell lebt auch von ihren Erweiterungen, doch das ist kein Ruhmesblatt für die Gnome-Shell, es behält den Charme der Notlösung und hat den Charakter einer Bastelei.

Die Gnome-Shell ist schick gemacht. Und durchdacht. Und fußt auf moderner Technik. Sie macht Spaß. Und dann scheitert’s an Kleinigkeiten. Sie macht es den ambitionierten Anwendern, die gerne mehr Wahlmöglichkeiten innerhalb der Shell hätten, unnötig schwer. Das Tragische ist nicht nur, dass sämtliche Abspaltungen und Variationen nicht notwendig gewesen wären, wenn das Gnome-Projekt seine Anwender nicht zu ihrem Glück zwingen würde und die Gnome-Shell konfigurierbarer gestaltet hätte – für mehr Freiheit in freier Software, auch für den Anwender.

Das Tragische ist vor allem, dass die angestrebte Homogenität des Desktop-Erlebnisses von Gnome selbst unnötigerweise torpediert wurde. Gnome wollte nicht, dass Nutzer ihre Desktops konfigurieren. Das jedoch erst hat dazu geführt, dass sich statt einer einheitlich-schlichten Gnome-Oberfläche nun eine ganze Reihe alternativer Oberflächen auf den Linux-Bildschirmen tummeln – und dass die Gnome-Shell durch Erweiterungen regelrecht zerpflückt werden kann. Die Vision der Entwickler sollte möglichst nicht beschädigt werden, Gnome überall gleich aussehen. Das ging im Ergebnis voll daneben, im schlimmsten Fall läuft nicht mal mehr Gnome bei den Nutzern.


Sechs bis sieben Mal Linuxoberfläche allein auf Gnome-Basis

Vielfalt auf dem Linux-Desktop muss nicht schlecht sein, aber es verhindert langfristig den Durchbruch als verbreiteteres Desktopsystem. Mit bis zu sechs verschiedenen, parallel angebotenen Oberflächen, die alle irgendwie mit Gnome zu tun haben, wird Torvalds Ziel von Linux als selbstverständlichem PC-Betriebssystem Utopie bleiben. Da hilft auch die Strahlkraft eines Ubuntus nicht weiter, das die siebte Variation von Gnome auf den Markt wirft. Die Gnome-Shell wäre die ideale Linuxoberfläche, sie könnte Linux ein unverwechselbares Gesicht geben, das nicht wirkt wie ein Windows- oder Mac-Abklatsch – wäre sie nicht durch eine übertriebene Simplizitäts-Attitüde ins Hintertreffen geraten. So ist sie heute nur noch eine Wahl unter vielen. Tragisch.

Abhängigkeiten eines .deb Archives ändern

Permalink debinux

Kann hin und wieder hilfreich und sinnvoll sein. So habe ich etwa das Plex Home Theater auf Sid installiert, das “libass4″ verlangt und “libass5″ nicht akzeptiert.
Die Commands zum aus- und einpacken einer solchen Datei habe ich nicht im Kopf, dafür brauche ich es einfach zu selten. Google hilft mir, wenn es wieder soweit ist, zuverlässig.

Dieses mal führte die Suche mich zu einem kleinen Script:
“vi” ersetze ich jedoch durch “nano”.

Die neue Datei lege ich als “debchanger” in “/usr/local/bin” ab:

1
sudo nano /usr/local/bin/debchanger

Der Inhalt des Scripts:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
#!/bin/bash
 
if [[ -z "$1" ]]; then
  echo "Syntax: $0 debfile"
  exit 1
fi
 
DEBFILE="$1"
TMPDIR=`mktemp -d /tmp/deb.XXXXXXXXXX` || exit 1
OUTPUT=`basename "$DEBFILE" .deb`.modfied.deb
 
if [[ -e "$OUTPUT" ]]; then
  echo "$OUTPUT exists."
  rm -r "$TMPDIR"
  exit 1
fi
 
dpkg-deb -x "$DEBFILE" "$TMPDIR"
dpkg-deb --control "$DEBFILE" "$TMPDIR"/DEBIAN
 
if [[ ! -e "$TMPDIR"/DEBIAN/control ]]; then
  echo DEBIAN/control not found.
 
  rm -r "$TMPDIR"
  exit 1
fi
 
CONTROL="$TMPDIR"/DEBIAN/control
 
MOD=`stat -c "%y" "$CONTROL"`
nano "$CONTROL"
 
if [[ "$MOD" == `stat -c "%y" "$CONTROL"` ]]; then
  echo Not modfied.
else
  echo Building new deb...
  dpkg -b "$TMPDIR" "$OUTPUT"
fi
 
rm -r "$TMPDIR"

Abschließend als ausführbar markieren:

1
sudo chmod +x /usr/local/bin/debchanger

Die Benutzung ist einfach: “debchanger package.deb” verändert das Paket on-the-fly. Das neue Paket wird als “package-modified.deb” im aktuellen Arbeitsverzeichnis abgelegt.

3. September 2014

SSH: Shared Connection && SSH Agent

Permalink coa.cx

Wer oft per SSH unterwegs ist wird eventuell noch einen kleinen Vorteil aus den folgenden Konfigurationen ziehen können.
Mich störte es zum Beispiel, immer wieder ein Passwort für den SSH Agent eingeben zu müssen wenn ich auf meinen Login-Server verbinde, von welchem aus ich alle anderen Server ohne VPN erreiche.

SSH Agent

Man kann nun in seinem .ssh Ordner eine extra Datei erstellen, oder den folgenden Inhalt einfach in die .bashrc schreiben:

SSH_ENV=$HOME/.ssh/environment

function start_agent {
     echo "Initialising new SSH agent..."
     /usr/bin/ssh-agent | sed 's/^echo/#echo/' > ${SSH_ENV}
     echo succeeded
     chmod 600 ${SSH_ENV}
     . ${SSH_ENV} > /dev/null
     /usr/bin/ssh-add;
}

# Source SSH settings, if applicable

if [ -f "${SSH_ENV}" ]; then
     . ${SSH_ENV} > /dev/null
     #ps ${SSH_AGENT_PID} doesn't work under cywgin
     ps -ef | grep ${SSH_AGENT_PID} | grep ssh-agent$ > /dev/null || {
         start_agent;
     }
else
     start_agent;
fi

Quelle: cygwin@cygwin.com mailing list

Damit wird ein SSH Agent von allen Login Sessions aufgerufen. Will man, dass dieser nach dem letzten Logout wieder geschlossen wird, fügt man noch folgendes hinzu:

trap stop_agent 0 SIGTERM SIGKILL

SSH Shared Connection

Wenn man auf Systemen arbeitet auf die man nicht per SSH Key als Authentifizierung zugreift, so kann man eine Verbindung freigeben, um zu erreichen, dass alle weiteren die Login Session übernehmen die auf den selben Host verbinden. Weiterer Vorteil, auch für Hosts, bei denen man sich mittels Key anmeldet: Es wird ein UNIX-Socket geteilt und keine zusätzliche Verbindung aufgebaut. Das kann generell zu Vorteilen bei der Geschwindigkeit führen, ich habe sehr gute Erfahrung damit sammeln können, wenn ich er UMTS online bin.

Konfiguriert wird die SSH Shared Connection in .ssh/config:

Host *
  ControlPath ~/.ssh/seed-%l-%r@%h:%p
  ControlMaster auto

Wenn nichts mehr geht: rephrase

Permalink barfoos

Wer hat nicht schon mal ein Passwort vergessen? Genau. Wir alle standen schon vor dem Problem. Besonders ärgerlich ist es Passwörter zu vergessen, die PGP-Schlüssel entsperren. Das einzige was bisher in so einem Fall zu tun blieb war entweder Passwörter durchprobieren, oder das im Prozess der Schlüsselerzeugung generierte Widerrunfszertifikat in die freie Wildbahn zu entlassen und ein neues Schlüsselpaar zu erzeugen.

In meinem Fall war mir jedoch die Struktur des verloren gegangenen Passwortes relativ klar. Statt jetzt händisch alle möglichen Variationen aus Groß- und Kleinschreibung durchzuprobieren, fand ich das Programm rephrase.

Installation aus den Paketquellen

Ab 14.04 befindet sich dies in den Paketquellen von Ubuntu und kann mit einem einfachen Aufruf von

sudo apt-get install rephrase

installiert werden.

manuelle Installation mittels Quellpaket

Für ältere Ubuntuversionen muss auf das sehr übersichtliche Quellpaket zurück gegriffen werden, dass sich auf der Webseite des Entwicklers finden und herunterladen lässt.

Die Installation ist in diesem Fall etwas komplexer. Um den Zugriff auf die Schlüsselverwaltung sicher zu stellen, gilt es zunächst zu klären, wo auf dem System GPG installiert ist.

which gpg

In meinem Fall fand sich GPG unter /usr/bin/gpg. Dieser Ort muss ins Makefile, was sich mit folgendem Aufruf erledigen lässt:

make GPG=/usr/bin/gpg

Im Makefile lassen sich auch weitere Details festlegen, die für mich nicht weiter relevant waren. In der mitgelieferten ReadMe-Datei werden diese jedoch erklärt.

Nun muss das Programm nur noch installiert werden:

sudo make install

Nutzung

Auch die Nutzung ist sehr sinnvoll gestaltet. Zunächst braucht es die Schlüssel-ID von dem Schlüssel zu dem das Passwort fehlt. Diese lässt sich zum Beispiel in der Schlüsselverwaltung von GPG oder eurem Mailprogramm finden uns ist achtstellig.

Zum Start wird rephrase genau diese Nummer als Argument übergeben:

sudo rephrase ABCD1234

Im nächsten Schritt seid ihr aufgefordert ein Muster einzugeben, dass durchprobiert werden soll. Für jede Stelle des Passwort lässt sich innerhalb einer Klammer angeben, welche Zeichen ausprobiert werden sollen.

Für ein Passwort mit sechs Zeichen sieht das zum Beispiel so aus: (U|u)(b|6)untu

In diesem Fall probiert das Programm folgende Varianten durch:

  • Ubuntu
  • ubuntu
  • U6untu
  • u6untu

Pro Klammer lassen sich auch mehr als zwei Varianten probieren. Zum Beispiel führt (B|b|8|6) dazu, dass das Programm an dieser stelle alle vier Zeichen durchprobiert.

Auch ein fehlenden eines Zeichen kann an einer Stelle mittels (B|b|) ausgedrückt werden.

In der Praxis kann ich nur empfehlen, dass Passwortmuster, dass ihr eingebt nicht direkt in das Programm einzugeben sondern entweder auf einem Zettel oder in einer Textdatei zwischen zu speichern. Aus Sicherheitsgründen zeigt das Programm selbst das Muster bei der Eingabe nicht an, was es insbesondere bei längeren Passwörtern nicht leicht macht, das Muster im Programm selbst zu entwickeln.

Darüber hinaus wird das gefundene Passwort (ebenfalls aus Sicherheitsgründen) nicht im Klartext angezeigt sondern als Zeichenfolge in der Form 1 2 1 1 1 1. Wobei jede Ziffer die Position der zur Verfügung gestellten Zeichen an der Stelle angibt. In unserem Beispiel also fast immer das erste zur Verfügung gestellte Zeichen, außer an zweiter Stelle, wo das zweite Zeichen benötigt wird.

So ergibt sich nach Abgleich mit unserem Muster:

Stelle 1 2 3 4 5 6
Muster (U|u) (b|6) u n t u
Ergebnis 1 2 1 1 1 1
Passwort U 6 u n t u

Ein wesentlich komplexeres Beispiel mit weiteren Erläuterungen und Hinweisen zu Sonderzeichen findet sich ebenfalls in der ReadMe-Datei.

Je nach Länge des vergessenen Passwortes braucht das Programm sehr lang zum Durchprobieren. Ein Blick auf meine CPU-Auslastung legt die Vermutung nah, dass es nicht besonders effektiv dabei ist in kurzer Zeit viele Kombinationen durch zu probieren.

1. September 2014

Linux 3.17-rc3

Permalink menzer.net

Noch im August kam die dritte Entwicklerversion.

Auf den ersten Blick scheint sie recht dick zu sein, aber eigentlich ist nichts wirklich aufregendes dabei. Dass es ein paar Commits mehr sind als bei -rc2 schiebt Torvalds auf die Tatsache, dass die Kernel-Entwickler von ihren Reisen zum Kernel Summit nun zurückgekehrt sind. Und die erst einmal erschreckend hohe Zahl der geänderten Textzeilen lässt sich darauf zurückführen, dass der usbip-Code nach über vier Jahren der Arbeit aus dem Staging-Bereich zu den Kernel-Treibern und den Userspace-Tools umziehen durfte. „usbip“ ermöglicht es, USB-Geräte eines Hosts über das Netzwerk anderen Systemen zur Verfügung zu stellen.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.17-rc1 11 528 9 947 629 361 651 438 16. Aug 2014 13
3.17-rc2 266 234 2 863 1 013 25. Aug 2014 9
3.17-rc3 307 394 13 992 13 018 31. Aug 2014 6
Gesamt 12 103 10 257 645 361 664 614 28

* Tage seit dem letzten rc/Release

Quelle: Linux Kernel Mailing List

Sim Karte dauerhaft in Ubuntu / Linux Mint entsperren / dauerhaft deaktivieren.

Permalink Unerklärliches am Rande

Mein Laptop ist mit einer fest eingebauten Datenwanze namens Ericsson Business Mobile Networks BV zu mir gekommen. Ein nerviges Feature des Modems ist das ständige Nachfragen des Netzwerkmanagers nach der PIN wenn eine SIM Karte einliegt – auch wenn man bei der Option “Automatisch entsperren” einen Haken setzt. Das ist auf Dauer recht nervig, da ich 1,2 mal die Woche mobiles Internet benötige, aber dafür ständig belästigt werde. Um die Karte zu entfernen muß der Akku des Laptops entfernt werden (uptime im Eimer) und kleine Dinge wie SIM-Karten gehen bei mir schnell verloren. Eine Softwarelösung muß also her!

Die Pin läßt sich dauerhaft mit dem Befehl gsmctl aus dem Paket gsm-utils speichern. Dafür muß erst das Device File mit

ms@w530 ~ $ for n in `ls /sys/class/*/*{ACM,wdm}*/device/interface`;do echo $(echo $n|awk -F '/' '{print $5}') : $(cat $n);done

gefunden werden.

ttyACM0 : H5321 gw Mobile Broadband Modem
ttyACM1 : H5321 gw Mobile Broadband Data Modem
ttyACM2 : H5321 gw Mobile Broadband GPS Port
cdc-wdm0 : H5321 gw Mobile Broadband Device Management
cdc-wdm1 : H5321 gw Mobile Broadband USIM Port

In meinem Fall kann man über /dev/ttyACM0 mit dem Modem sprechen und die Pin mit dem Befehl

sudo gsmctl -d /dev/ttyACM0 -o unlock sc all 1234

dauerhaft setzen.

Das Modem kann auch deaktiviert werden. Dafür als Superuser

rfkill block wwan

in die /etc/rc.local eintragen.

Die Seite zu dem Modem im ThinkWiki verrät noch mehr über dieses Modem, auch wie man den GPS Chip in Gang setzten kann – hab ich noch nicht gemacht und nicht so schnell vor.

Re-run your boot loader

Permalink Invictus deus ex machina

Bei einer Aktualisierung eines Ubuntusystems mittels des Paketmanagers wurde der Vorgang am Ende mit der Zeile:

The link /vmlinuz.old is a damaged link
Removing symbolic link vmlinuz.old 
 you may need to re-run your boot loader[grub]

abgeschlossen. Die Lösung für das Problem ist dabei relativ unkompliziert. Es reicht auf der Konsole:

update-grub

einzugeben. Damit wird die menu.lst erneut geschrieben.

Eine eigene OpenSSL CA erstellen und Zertifikate ausstellen

Permalink thomas-leister.de

OpenSSL bringt umfassende Werkzeuge mit, um eine eigene, kleine Certificate Authority (CA) betreiben zu können. Die Nutzung einer eigenen CA ist besonders dann sinnvoll, wenn mehrere Dienste über SSL/TLS kostenlos abgesichert werden sollen. Neben dem Nachteil, dass die eigene CA vor Benutzung zuerst auf den Clientrechnern bekannt gemacht werden muss, gibt es aber auch einen Vorteil: Mit einer CA unter der eigenen Kontrolle ist man im Zweifel auf der sicheren Seite: In den letzten Jahren wurden immer wieder Fälle bekannt, in denen große Certificate Authorities falsche Zertifikate ausgestellt haben. Es gibt Grund genug, die Vertrauenswürdigkeit großer CAs anzuzweifeln.

Mit dieser Anleitung werdet ihr in der Lage sein, beliebig viele Zertifikate für eure Dienste ausstellen zu können, die in jedem Browser als gültig erkannt werden, sofern vorher das Root-Zertifikat eurer CA importiert wurde.

Certificate Authority (CA) erstellen

Zu Beginn wird die Certificate Authority generiert. Dazu wird ein geheimer Private Key erzeugt:

openssl genrsa -des3 -out ca-key.pem 2048

Der Key trägt den Namen „ca-key.pem” und hat eine Länge von 2048 Bit. Wer es besonders sicher haben will, kann auch eine Schlüssellänge von 4096 Bit angeben. Die Option „-des3″ führt dazu, dass der Key mit einem Passwort geschützt wird. Die Key-Datei der CA muss besonders gut geschützt werden. Ein Angreifer, der den Key in die Hände bekommt, kann beliebig gefälsche Zertifikate ausstellen, denen die Clients trauen. Die Verschlüsselung dieses Keys mit einem Passwort gibt zusätzlichen Schutz. Das gewünschte Passwort wird bei der Generierung abgefragt.

Einen geheimen Key für die CA gibt es nun also schon – fehlt noch das Root-Zertifikat, das von den Clients später importiert werden muss, damit die von der CA ausgestellten Zertifikate im Browser als gültig erkannt werden. Das Root-Zertifikat „ca-root.pem” wird mit folgendem Befehl erzeugt: (ggf. wird das Passwort für den vorher erstellen Key abgefragt!)

openssl req -x509 -new -nodes -extensions v3_ca -key ca-key.pem -days 1024 -out ca-root.pem

In diesem Fall wird die CA 1024 Tage lang gültig bleiben. Während der Generierung werden das Passwort für die CA und einige Attribute abgefragt (hier ein Beispiel):

Country Name (2 letter code) [AU]:DE
State or Province Name (full name) [Some-State]:BY
Locality Name (eg, city) []:Landshut
Organization Name (eg, company) [Internet Widgits Pty Ltd]:trashserver.net
Organizational Unit Name (eg, section) []:IT
Common Name (eg, YOUR name) []:trashserver.net
Email Address []:sslmaster@domain.com

Root-Zertifikat auf den Clients importieren

Damit ein Rechner die selbst ausgestellten Zertifikate akzeptiert, muss auf diesem Rechner das Root-Zertifikat (Public Key der CA) importiert worden sein.

Mozilla Firefox / Thunderbird

Mozilla Firefox verwaltet Zertifikate selbst. Ein neues Zertifikat wird importiert unter „Einstellungen => Erweitert => Zertifikate => Zertifikate anzeigen => Zertifizierungsstellen => Importieren”. Wählt die Option „Dieser CA vertrauen, um Websites zu identifizieren”.

Chromium / Google Chrome

„Einstellungen” => „Erweiterte Einstellungen anzeigen” (unten) => „HTTPS/SSL” => „Zertifikate verwalten” => „Zertifizierungsstellen” => „Importieren” => „Diesem Zertifikat zur Identifizierung von Websites vertrauen”

Debian, Ubuntu

sudo cp ca-root.pem /usr/share/ca-certificates/myca-root.crt
sudo dpkg-reconfigure ca-certificates

=> Neue Zertifikate akzeptieren

Ein neues Zertifikat ausstellen

Die CA ist nun fertig und kann genutzt werden. Zeit, das erste Zertifikat auszustellen!

Grundlage ist immer ein privater Schlüssel. Wie auch bei der CA wird dieser Private Key erzeugt:

openssl genrsa -out zertifikat-key.pem 4096

An dieser Stelle ein Passwort zu setzen ist in den meisten Fällen nicht besonders sinnvoll. Ein Webserver, der des Zertifikat verarbeitet, müsste bei jedem Start das Passwort abfragen. Das ist in der Praxis mehr lästig und hinderlich als nützlich. (=> Passwortfelder einfach leer lassen). Die Schlüssellänge wurde hier auf paranoide 4096 Bit gesetzt. 2048 sind auch okay ;)

Nun wird eine Zertifikatsanfrage erstellt, bei der wieder einige Attribute abgefragt werden. Besonderheit ist hier: Das Feld „Common Name” muss den Hostnamen des Servers tragen, für den es gültig sein soll. Soll z.B. die Verbindung zum Rechner mit der IP-Adresse „192.168.2.2” mit dem Zertifikat abgesichert werden, muss die IP-Adresse hier angegeben werden. Soll das Zertifikat dagegen für die Domain thomas-leister.de gelten, muss das ebenso eingetragen werden. Es ist auch möglich, sog. Wildcard-Zertifikate zu erstellen. Wird z.B. „*.thomas-leister.de” als Common Name angegeben, gilt das Zertifikat für alle Domains von thomas-leister.de, also login.thomas-leister.de, start.thomas-leister.de usw. – nicht aber für thomas-leister.de selbst. Das Challenge Passwort wird nicht gesetzt (leer lassen).

openssl req -new -key zertifikat-key.pem -out zertifikat.csr -sha512

Sobald die Zertifikatsanfrage „zertifikat.csr” fertiggestellt ist, kann sie von der CA verarbeitet werden. Dabei entsteht der öffentliche Schlüssel (Public Key) zum angefragten Zertifikat. Dieser wird zusammen mit dem Private Key des Zertifikats für die Verschlüsselung benötigt.

Mit folgendem Befehl wird ein Public Key „zertifikat-pub.pem”ausgestellt, der 365 Tage lang gültig ist:

openssl x509 -req -in zertifikat.csr -CA ca-root.pem -CAkey ca-key.pem -CAcreateserial -out zertifikat-pub.pem -days 365

Die Zertifizierungsanfrage zertifikat.csr kann gelöscht werden – sie wird nicht mehr benötigt. Übrig bleiben Private Key und Public Key des neuen Zertifikats (zertifikat-key.pem und zertifikat-pub.pem) sowie Private- und Public Key der CA (ca-key.pem und ca-root.pem)

Die Zertifikate nutzen

In der Webserver-Konfiguration müssen üblicherweise drei Zertifikatsdateien angegeben werden:

  • Private Key des Zertifikats (zertifikat-key.pem)
  • Public Key des Zertifikats (zertifikat-pub.pem)
  • Public Key der CA (ca-root.pem)

Der Public Key der CA kann auch an die Public Key Datei des Zertifikats angehängt werden:

cat ca-root.pem >> zertifikat-pub.pem

Diese Integration ist immer dann nötig, wenn es keinen Parameter in der Konfiguration gibt, bei dem man das Rootzertifikat einer CA angeben kann – beim XMPP Server Prosody und beim Webserver Nginx ist das z.B. der Fall: Hier können nur Public- und Private Key des Zertifikats angegeben werden.

Wie ihr SSL/TLS für euren Webserver nutzt könnt ihr in diesen beiden Beiträgen nachlesen:

 

Quellen: http://datacenteroverlords.com/2012/03/01/creating-your-own-ssl-certificate-authority/

31. August 2014

Firefox 34 bekommt Storage Inspector

Permalink Sören Hentzschel

Mit dem Storage Inspector bekommt Firefox ein neues Entwickler-Werkzeug, welches das Betrachten und Bearbeiten von Cookies und Inhalten aus IndexedDB, Local Storage sowie Session Storage erlaubt.

Das Betrachten von Cookies einer Webseite erlaubt Firefox bereits seit längerem über das Netzwerk-Panel der Entwickler-Werkzeuge. Mit Firefox 34 kommt ein neues Entwickler-Werkzeug dazu, welches nicht nur die Inhalte von Cookies, sondern auch von IndexedDB, Local Storage sowie Session Storage darstellt. Das neue Tool ist bereits Bestandteil der aktuellen Nightly-Version von Firefox 34 und kann über das Einstellungs-Panel der Entwickler-Werkzeuge aktiviert werden. Das Anlegen, Bearbeiten und Löschen ist in der aktuellen Nightly-Version noch nicht möglich, aber in Arbeit. In speziellen Test-Builds funktioniert das Bearbeiten auch schon zu großen Teilen, so dass es eher noch eine Frage von Tagen als von Wochen ist, bis dieser Part des Features in Firefox landet und das neue Werkzeug erst wirklich praktisch macht. Ob die Möglichkeit des Bearbeitens auch Bestandteil von Firefox 34 sein wird, ist allerdings noch unklar in Anbetracht der Tatsache, dass bereits am Dienstag der Startschuss für die Firefox 35-Entwicklung fällt.

Firefox 34 bekommt Storage Inspector

Permalink Sören Hentzschel

Mit dem Storage Inspector bekommt Firefox ein neues Entwickler-Werkzeug, welches das Betrachten und Bearbeiten von Cookies und Inhalten aus IndexedDB, Local Storage sowie Session Storage erlaubt.

Das Betrachten von Cookies einer Webseite erlaubt Firefox bereits seit längerem über das Netzwerk-Panel der Entwickler-Werkzeuge. Mit Firefox 34 kommt ein neues Entwickler-Werkzeug dazu, welches nicht nur die Inhalte von Cookies, sondern auch von IndexedDB, Local Storage sowie Session Storage darstellt. Das neue Tool ist bereits Bestandteil der aktuellen Nightly-Version von Firefox 34 und kann über das Einstellungs-Panel der Entwickler-Werkzeuge aktiviert werden. Das Anlegen, Bearbeiten und Löschen ist in der aktuellen Nightly-Version noch nicht möglich, aber in Arbeit. In speziellen Test-Builds funktioniert das Bearbeiten auch schon zu großen Teilen, so dass es eher noch eine Frage von Tagen als von Wochen ist, bis dieser Part des Features in Firefox landet und das neue Werkzeug erst wirklich praktisch macht. Ob die Möglichkeit des Bearbeitens auch Bestandteil von Firefox 34 sein wird, ist allerdings noch unklar in Anbetracht der Tatsache, dass bereits am Dienstag der Startschuss für die Firefox 35-Entwicklung fällt.

Wochenrückblick 35/2014

Permalink deesaster.org

Der Wochenrückblick lässt das Geschehen der vergangenen Woche rund um Ubuntu, Linux und Open Source Revue passieren.

Rund um Ubuntu

Canonical als WEF Tech Pioneer 2015 ausgezeichnet

Canonical, die Firma hinter Ubuntu, wurde vom World Economic Forum als „Tech Pioneer 2015“ im Bereich „Digital Networks & Computing“ ausgezeichnet. Ein anderer, ausgezeichneter Bekannter in der gleichen Sparte ist die Raspberry Pi Foundation.

Quelle: Ubuntu Insights

Erste Beta-Versionen der Ubuntu-Familie für 14.10

Das Utopic Unicorn erscheint im Oktober 2014, letzte Woche wurden die ersten Beta-Versionen der verschiedenen Ubuntu-Derivate veröffentlicht, darunter Xubuntu, Kubuntu, Ubuntu GNOME, Lubuntu, Ubuntu Kylin und Ubuntu Cloud Images. Von Ubuntu selbst gibt es keine Beta-Versionen, da es tägliche „Daily Builds“ zum Download gibt. Achtung: Beta-Versionen sind nicht zum produktiven Einsatz gedacht!

Quellen: OMG!Ubuntu!, Pro-Linux, heise open

Ubuntu GNOME Wallpaper-Contest

Noch bis zum 5. September 2014 kann man für die Hintergrundbilder von Ubuntu GNOME 14.10 abstimmen. Der Wettbewerb wird über Picompete durchgeführt. Nach der Wahl werden die 10 besten Hintergrundbilder ausgewählt und mit der Distribution ausgeliefert.

Quelle: Ubuntu GNOME Blog

Full Circle Magazine 88

Diese Woche ist die neue Ausgabe des englischsprachigen Magazins Full Circle Magazine erschienen. Themen der 88. Ausgabe sind unter anderem Tutorials zu Blender, Inkscape und LibreOffice, ein kurzer Blick auf Arduino, Einrichtung eines minimalen Ubuntu-Desktops und Kompilierung des Linux-Kernels.

Quelle: Full Circle Magazine Blog

Neues rund um Linux

Leadwerks Game Engine für Linux

Eine weitere Engine steht für die Spieleprogrammierung unter Linux zur Verfügung: die durch eine Kickstarter finanzierte Portierung der Leadwerks Game Engine. Diese kann man ab sofort bei Steam für ca. 93 Euro als Einzellizenz kaufen. Die LGE unterstützt OpenGL 4.0 und verschiedene Skriptsprachen, vor allem Lua. Unter Linux gibt es auch eine Blender-Integration.

Quellen: Pro-Linux, Golem, heise open

Spielen unter Linux

The Journey Down, Teil 2 veröffentlicht

Vom erfolgreichen Indie-Spiel The Journey Down ist der zweite Teil erschienen. Mit karibisch-afrikanischem Flair und Jazz-Klängen stach der erste Teil des Point-and-Click-Adventures aus der Menge der Abenteuerspiele heraus. Und auch im zweiten Teil darf wieder fröhlich gepuzzelt werden.

Quelle: heise open

Hardware und Mobiles

Huawei sieht keine Chance für Tizen

Der Mobilmarkt wird derzeit von Google Android und Apple iOS dominiert. Es gibt zahlreiche weitere Versuche, andere Mobilsystem zu etablieren. Darunter Ubuntu Phone, Firefox OS, Sailfish OS oder Tizen. Für letzteres sieht Gerätehersteller Huawei keine Chancen im Markt. Ob sich die anderen Systeme gegen die zwei Platzhirsche durchsetzen können, bleibt abzuwarten.

Quellen: Pro-Linux, heise open

FSFE: Free Your Android

Die Free Software Foundation Europe (FSFE) hat die Kampagne Befreie Dein Android ins Leben gerufen. Grund ist, dass die meisten Treiber für Mobilgeräte und Programme im Android Market nicht frei sind. Dabei geht es aber auch um das Thema Privatsphäre, die mit vielen Apps nicht gewahrt ist.

Quelle: heise open

Ergonomisches arbeiten mit 16:9 Displays

Permalink Unerklärliches am Rande

Heute geht es nicht um Ubuntu / Linux Basteleien, sondern um komfortables Lesen und Arbeiten mit dem Rechner. Schon seit längerem bietet der Markt eigentlich nur noch LC-Displays im Format 16:9 an. Dieses Format eignet sich hervorragend zum Anschauen von Spielfilmen, dem Spielen von Computerspielen und – was eigentlich? Das Layout der meisten Texte in meinem Kulturkreis ist auf Seitenverhältnis von 1:1,41 Hochkant ausgelegt.
Das harmonisiert nicht wirklich mit den Verhältnis 1:1,78 der meisten Computerbildschirme. Den größten Teil des Tages verbringe ich mit dem Lesen und Schreiben von Texten und nicht mit Spielen oder Filme schauen – 16:9 geht also klar an meinen Bedürfnissen vorbei.
Da heute Sonntag ist habe ich ein wenig an meinen Monitoreinstellungen herumgebastelt und gearbeitet.
Bisher habe ich 3 Displays (1* 15,6″, 1* 23″, 1*24″) mit einer jeweiligen Auflösung 1920 * 1080 Pixel genutzt. Nun habe ich ein Display im Uhrzeigersinn nach rechts gedreht und Screenshots gemacht. Im unteren Display sind die Bildschirmeinstellungen.

Im ersten Screenshot ist eine normale Newsseite im Netz zu sehen. Bemerkenswert ist der graue Rand, dieser ist sichtbar, da ich zu Testzwecken die Werbung auf der Seite ausgeblendet habe. Auffällig ist das schlechte Verhältnis von grauer Fläche zu Inhalt. Im Hochformat sieht die Sache schon ganz anders aus – weniger Grau und viel mehr Text. Informationen gehen nicht verloren. Das Rumklicken und Lesen auf der Seite macht deutlich mehr Spaß auch wenn die Darstellung ein wenig ungewohnt ist.

Internetseite einmal im Hoch- und einmal im Querformat

Viel interessanter ist der zweite Screenshot. Damit verbringe ich den größten Teil meiner Arbeitstage, dem Erstellen von unformatiertem Text. Rechts und Links ist der gleiche Code dargestellt. Der graue Balken zeigt den rechten Rand nach 120 Zeichen an. Diese Größe ist für mich sehr wichtig, da ich sehr selten und auch ungern Zeilen schreibe die länger sind.

2 mal der gleiche C Code, einmal im Hoch und einmal im Querformat.
2 mal der gleiche C Code, einmal im Hoch und einmal im Querformat.

Hier überzeugt das Hochformat! Man erkennt mehr Zeilen und muß nich so sehr am Mausrad drehen. Zum rechten Rand ist noch ein wenig Platz für Ausnahmen von der Regel und statt magerer 54 Zeilen sieht man 104 Zeilen!

Reiner Text ist meiner Meinung nach auch angenehmer zu lesen.

Faust im Browser
Faust im Browser

Zum Schluss bleibt die Frage, wie Ihr Eure Displays eingestellt habt. Arbeitet Ihr nur im Hoch oder Querformat oder nutzt Ihr beides?

Chromium unter Testing installieren

Permalink Intux

Chromium-LogoSeit der Version 35 von Chromium vermisst man die direkte Flash-Unterstützung im beliebten Open-Source-Browser. Muss man nun auf Flash verzichten? Nein!

So installiert man Chromium inkl. des Adobe Flash Forks Pepperflash und deutscher Sprachunterstützung unter Debian Testing.

# apt-get update
# apt-get install chromium chromium-l10n pepperflashplugin-nonfree

30. August 2014

Firefox 32: Mehr Sicherheit durch Public Key Pinning

Permalink Sören Hentzschel

Mozilla wird in der kommenden Woche Firefox 32 veröffentlichen. Mit der neuen Version unterstützt Firefox das sogenannte Public Key Pinning, was das Browsing sicherer machen soll.

Beim Public Key Pinning geht es darum, beim Besuch einer verschlüsselten Webseite zu überprüfen, ob das verwendete Zertifikat von einem vertrauenswürdigen Herausgeber stammt. Genauer gesagt erlaubt das Public Key Pinning die Definition, welche Zertifizierungsstelle gültige Zertifikate für eine bestimmte Webseite ausstellt, statt jedes beliebige Zertifikat zu akzeptieren, welches mit dem Browser ausgeliefert wird. Dies soll das Risiko von Man-in-the-middle-Attacken durch fälschlich ausgestellte Zertifikate reduzieren, wie es sie in der Vergangenheit schon öfter gab.

Firefox 32 unterstützt Pins, welche fix im Browser hinterlegt sind. Dies sind ab Firefox 32 Mozillas Add-on-Seite AMO und Mozillas CDN sowie einige Twitter-Domains. Mit Firefox 33 kommen die restlichen Twitter-Domains sowie die Domains von Google dazu. Ab Firefox 34 sind Pins für Firefox Accounts, Dropbox, Facebook und TOR integriert. In Zukunft möchte man auch die entsprechende HTTP-Erweiterung unterstützen, welche Webseitenbetreibern das Festlegen mittels HTTP-Header erlaubt.

Firefox 32: Mehr Sicherheit durch Public Key Pinning

Permalink Sören Hentzschel

Mozilla wird in der kommenden Woche Firefox 32 veröffentlichen. Mit der neuen Version unterstützt Firefox das sogenannte Public Key Pinning, was das Browsing sicherer machen soll.

Beim Public Key Pinning geht es darum, beim Besuch einer verschlüsselten Webseite zu überprüfen, ob das verwendete Zertifikat von einem vertrauenswürdigen Herausgeber stammt. Genauer gesagt erlaubt das Public Key Pinning die Definition, welche Zertifizierungsstelle gültige Zertifikate für eine bestimmte Webseite ausstellt, statt jedes beliebige Zertifikat zu akzeptieren, welches mit dem Browser ausgeliefert wird. Dies soll das Risiko von Man-in-the-middle-Attacken durch fälschlich ausgestellte Zertifikate reduzieren, wie es sie in der Vergangenheit schon öfter gab.

Firefox 32 unterstützt Pins, welche fix im Browser hinterlegt sind. Dies sind ab Firefox 32 Mozillas Add-on-Seite AMO und Mozillas CDN sowie einige Twitter-Domains. Mit Firefox 33 kommen die restlichen Twitter-Domains sowie die Domains von Google dazu. Ab Firefox 34 sind Pins für Firefox Accounts, Dropbox, Facebook und TOR integriert. In Zukunft möchte man auch die entsprechende HTTP-Erweiterung unterstützen, welche Webseitenbetreibern das Festlegen mittels HTTP-Header erlaubt.

Pebble Steel Black Matte

Permalink /var/pub/chris_blog

Download PDF
Endlich lieferbar!

Endlich lieferbar!

Mit großer Freude habe ich vor einigen Wochen erfahren, dass die begehrte Pebble Smartwatch nun nach langer Wartezeit auch in Deutschland bestellt werden kann. Bisher stellte dies Zoll-technisch leider ein Problem dar. Mittlerweile scheinen die Probleme überwunden, eine Bestellung aus den Niederlande ist nun möglich.

Nachdem ich sehr lange auf diese Neuigkeit gewartet hab, musste ich mir die Uhr natürlich direkt bestellen. Die Lieferzeit war trotz der hohen Nachfrage mit zwei Tagen kürzer als erwartet. :)

Warum Pebble?

Doch warum die Pebble und nicht eine andere Smartwatch, wie beispielsweise die Samsung Galaxy Gear? Ganz einfach, mir gefällt das Design-Konzept der durch Kickstarter finanzierten Uhr aus mehreren Gründen besser.

Pebble Steel

Pebble Steel

Andere Smartwatches verfolgen den Gedanken, Smartphone-Technologie in ein Uhr-Gehäuse zu verfrachten. So trägt man mehr weniger leistungsfähige ARM-Geräte mit Android-Betriebsystem und Farbdisplay am Handgelenk. Eine der Folgen sind kurze Akku-Laufzeiten und – meiner Meinung nach – überladene Betriebssysteme.

Die Pebble ist hier bedeutend minimalistischer und kann nur das, was man von einer intelligenten Uhr erwartet: die Zeit anzeigen und eine Verbindung zum Smartphone herstellen. Somit fehlen ein Farbdisplay, eine Kamera, größzügiger Arbeitsspeicher und WLAN. Das mag jetzt eher kontraproduktiv klingen, sorgt aber für mehr Akku-Laufzeit (bis zu 7 Tage). Die Pebble verfügt über:

  • STM32F205RE Cortex M3 CPU mit 120 Mhz
  • 128 KB Arbeitsspeicher
  • 4 MB Speicher für Apps und Watchfaces (Ziffernblätter)
  • 4 Tasten
  • Bluetooth 4.0
  • 144×168 Sharp E-Paper LCD
  • 3 Achsen-Accelerometer
  • PeebleOS Betriebsystem, ein minimalistisches FreeRTOS-Derivat
  • Wahlweise ein bis zu 50 Meter wasserdichtes Plastik- (Pebble) oder Metall-Gehäuse (Pebble Steel)
  • Platik-, Leder- oder Aluminium-Armband (alternativ können sämtliche 22mm Armbänder montiert werden)

Die Smartwatch wird über die offizielle Pebble-App mit einem iOS- oder Android-Gerät verbunden. Folgende Funktionen stehen dann zur Verfügung:

  • Benachrichtigungen anzeigen (E-Mail, Twitter, WhatsApp, Facebook, etc.)
  • Apps und Watchfaces herunterladen
  • Musik fernsteuern

Mithilfe des Pebble Software Development Kits (SDK) können auch eigene JavaScript- und C-Anwendungen für die Smartwatch erstellt werden, was das Entwicklerherz höher schlagen lässt.

Pebble Apps

Über den Peeble-eigenen AppStore können Anwendungen vertrieben und heruntergeladen werden. In diesem befinden sich schon eine große Anzahl an nützlichen Apps, von denen ich folgende nutze:

  • K9ToPebble – Über Kaiten / K9 eingegangene E-Mails werden als Benachrichtigung (inkl. Text-Ausschnitt) angezeigt, die Inbox kann separat über das Menü durchsucht werden
  • Multi Timer – Stoppuhr, Countdown und Rundenzähler, ideal für Präsentationen, um die verbleibende Zeit im Blick zu behalten

Watchfaces

Red Hat Watchface (Watchface-Generator)

Red Hat Watchface (Watchface-Generator)

Sehr nett ist auch die Möglichkeit, alternative Ziffernblätter zu verwenden. Die Auswahl ist hier ähnlich groß – ich verwende folgende Watchfaces:

Sehr nützlich ist auch der Pebble Watchface-Generator, mit welchem ohne Programmierkenntnisse eigene Ziffernblätter generiert werden können. Nach der Erstellung eines Ziffernblatts kann dieses einfach durch das Scannen eines QR-Codes über die offizielle Pebble-App des Smartphones auf der Smartwatch installiert werden.

Fazit

Nach knapp 2 Monaten bin ich mit der Pebble Steel immer noch sehr zufrieden und kann die Uhr nur empfehlen. Wer eine Smartwatch ohne “Firlefanz” sucht und Wert auf ein dezentes und zeitloses Design legt, sollte sich die Uhr unbedingt anschauen. Ich verwende sie nahezu täglich und möchte sie nicht mehr missen. :)

Download PDF

Youtube Videos mit Tastenkombination im VLC Player starten

Permalink LINUXFILES.de

In der Vergangenheit habe ich immer mal wieder mit youtube-dl experimentiert. Was mir bisher immer noch fehlte war eine Möglichkeit das Abspielen der Videos im externen Player zu vereinfachen. Es ist schon sehr mühselig die Videolinks zu kopieren und in einem Eingabedialog wieder einzufügen. Mit nur wenigen Zeilen Bash Code ist es möglich diesen Prozess einfacher zu halten.

Der Link zum Video wird wie gehabt mit der rechten Maustaste kopiert und das Video über eine Tastenkombination gestartet. Ermöglicht wird das durch das kleine Programm xsel über das man die Zwischenablage in einem Script auslesen kann. In Kombination mit youtube-dl und einem kleinen Bash Script lassen sich Videos über eine Tastenkombination direkt im externen Player starten. In meinem Fall habe ich dafür die Kombination [STRG+F12] gewählt. Eine Tastenkombination lässt sich in den Systemeinstellungen sehr einfach festlegen.

 

Das nachfolgende Script muss dann nur noch als solches gespeichert und ausführbar gemacht werden. Am besten man wählt einen Speicherort der im Pfad eingetragen ist, z.B. /usr/local/bin das hat den Vorteil das man nicht den kompletten Pfad angeben muss um das Script aufzurufen. Die Tastenkombination muss nun auf das Script verweisen.

Wenn youtube-dl VLC und xsel installiert ist kann man jetzt Youtube Videolinks die mit der rechten Maustaste kopiert wurden über die Tastenkombination im VLC Player öffnen lassen. Wer einen anderen Player nutzen möchte muss das Script entsprechend abwandeln.

Das Script:

Source code   
#!/bin/bash
 
ADRESSE=$(xsel -b)
STREAM=$(youtube-dl -g $ADRESSE)
vlc $STREAM
exit 0

29. August 2014

Umstieg auf systemd-networkd und systemd-timesyncd

Permalink [ENC]BladeXP's Blog

Seit Version 210 enthält systemd einen Dienst systemd-networkd für die Konfiguration von Netzwerkschnittstellen, zusätzlich gibt es seit Version 213 mit systemd-timesyncd auch einen einfachen NTP Client. Durch diese beiden Dienste wird die distributionsspezifische Netzwerkkonfiguration langfristig standardisiert.

Zum jetzigen Zeitpunkt bin ich auf meinen Clients, welche DHCP verwenden, auf die beiden neuen Dienste umgestiegen. Als Vorbereitung ist es ratsam dem DHCP Server die Option für den gewünschten NTP Server mit auf den Weg zu geben, so kann eine Anpassung der NTP Konfiguration auf allen Clients ausbleiben. Als Nächstes erstellen wir eine Konfigurationsdatei für unsere Netzwerkschnittstelle enp3s0 mit dem Dateinamen /etc/systemd/network/enp3s0.network:

[Match]
Name=enp3s0

[Network]
DHCP=yes

Durch diese Konfiguration erreichen wir das die oben genannte Netzwerkschnittstelle durch DHCP konfiguriert werden soll. Jetzt können die alten Dienste deaktiviert, und die neuen aktiviert werden:

netctl disable main
systemctl disable ntpd
systemctl enable systemd-networkd
systemctl enable systemd-timesyncd
Wenn es Dienste gibt, welche direkt beim Bootvorgang eine funktionierende Netzwerkverbindung benötigen, wie z.B. NFS oder CIFS Freigaben, kann noch zusätzlich der Service systemd-networkd-wait-online aktiviert werden.
systemctl enable systemd-networkd-wait-online

Nach einem Neustart des Systems läuft die Netzwerkkonfiguration über systemd, weiterführende Informationen zu den beiden neuen Diensten können den jeweiligen Manpages entnommen werden. Ich gehe davon aus das diese in den nächsten Versionen noch deutlich ausgebaut werden, z.b. um auch exotischere Anwendungsfälle abzudecken.

TP-Link WR1043ND v2 unbricken und OpenWRT flashen

Permalink thomas-leister.de

Vor einigen Tagen habe ich DD-WRT 24 SP3 auf meinem TP-Link WR1043ND v2.1 Router installiert. Leider lief die Firmware nicht so stabil wie zuerst gedacht und ein Betrieb als WLAN Accesspoint war nicht möglich. Relativ schnell war klar, dass OpenWRT das Gerät befeuern sollte. Ich habe ein „Werksreset”  nach dieser Anleitung versucht, jedoch den Fehler begangen, das Upgrade über eine WLAN-Verbindung zum Router durchzuführen. Während des Upgrades brach die WLAN Verbindung ab und die Softwareinstallation war nicht vollständig. In Folge dessen war der Router gebricked – d.h. es war keine Verbindung mehr über die üblichen Schnittstellen (LAN, WAN, WLAN) möglich und ein Reset über den Hardwaretaster blieb wirkungslos.

Es gibt zum Glück noch eine andere Möglichkeit, um mit dem Router zu kommunizieren: Die auf der Platine befindliche UART Schnittstelle kann genutzt werden, um über eine Konsole mit dem Gerät Kontakt aufzunehmen und Befehle zu geben. Auf diese Weise – und mit einem TFTP Server – ist es möglich, den gebrickten Router wieder zu beleben.

Benötigt werden ein 3,3V-UART USB Wandler, ein Kreuzschlitz-Schraubendreher, etwas Geschick, Nerven und Geduld ;)

UART Schnittstelle vorbereiten

TPL-WR1043ND v2 Platine UART

TPL-WR1043ND v2 Platine UART

Auf der Gehäuseunterseite befinden sich vier Schrauben, die mit einem handelsüblichen Kreuzschlitzschraubendreher herausgedreht werden können. Des weiteren befinden sich im den Gehäuserand herum einige Widerhaken, mit denen die beiden Gehäusehälften zusammengehalten werden. Um das Gehäuse vollständig zu öffnen, ist etwas Gewalt nötig.

Auf der linken Seite der Platine (die schwarze Moosgummileiste mit den eingebetteten LEDs liegt unten) befindet sich ein Streifen von vier Lötstellen. Dabei handelt es sich um die UART Schnittstelle, zu der vom PC aus eine Verbindung hergestellt wird. Für die Kommunikation über UART sind nur drei Pins nötig: GND, RX und TX. GND stellt üblicherweise die Masse dar, RX ist der Empfängerport und TX der Senderport. Die oberste Lötstelle kann mit VCC, also Versorgungsspannung beschriftet werden – sie wird nicht benötigt.

Die Pins befinden sich in folgender Reihenfolge auf der Platine (vom Kondensator aus abwärts): VCC, GND, RX, TX.

Für einen einfachen (und wiederverwendbaren) Kontakt zum UART Adapter habe ich vier Pins auf die Platine aufgelötet. Sollte ich die Schnittstelle noch einmal benötigen, benötige ich keinen Lötkolben mehr, sondern bin ich der Lage, eine Steckverbindung herzustellen.

Zum Auflöten der Pins kann die Platine als ganzes aus dem Gehäuse gehoben werden. Die Drähte zu den Antennenanschlüssen müssen dazu aus ihren Halterungen entfernt werden.

TFTP Server einrichten

Die OpenWRT Firmware wird vom Router aus über eine TFTP Verbindung von einem PC via LAN heruntergeladen. Der Router hat dabei die Rolle des TFTP Clients – wenn dem Router eine Datei angeboten werden soll, muss auf dem PC deshalb ein TFTP Server eingerichtet werden.

Wie ihr einen TFTP Server einrichtet, könnt ihr an verschiedenen Stellen im Netz nachlesen. Arch Linux user sollten sich die Seiten im Wiki anschauen: https://wiki.archlinux.org/index.php/tftpd_server

Wichtig bei der Einrichtung: Legt ein extra Verzeichnis z.B. in eurem Home-Verzeichnis an (bei mir: „code.bin”) und macht es für den TFTP-Server zum Standard-Serververzeichnis. In dieses Verzeichnis wird später die Firmware-Datei (.bin) abgelegt. In der Beispielkonfiguration im Arch Wiki wird als Serververzeichnis /srv/tftp/ festgelegt – ändert das gegebenenfalls.

Noch ein Tipp für Arch User: Bevor der tftpd.service gestartet werden kann, muss der Dienst tftpd.socket laufen.

OpenWRT downloaden

Downloadet die aktuelle OpenWRT Firmware für euren WR1043nd v2. Ich habe mich dazu entschlossen, die RC3 Version von Barrier Breaker (Download hier) zu flashen, weil sie trotz ihres RC-Statuses auf zwei meiner anderen Router bereits zufriedenstellend läuft.

Die Firmware-Datei (bei mir: „openwrt-ar71xx-generic-tl-wr1043nd-v2-squashfs-factory.bin”) wird in das TFTP Serververzeichnis auf eurem PC verschoben. Von dort lädt der TFTP-Client (Router) die Firmware herunter.

LAN vorbereiten

Damit der Router weiß, zu welchem PC mit welcher IP-Adresse er eine TFTP Verbindung aufbauen soll, gibt es eine Festlegung: Der Rechner mit dem TFTP-Server muss die IP-Adresse 192.168.1.100 haben. Verbindet die Netzwerkschnittstelle eures PCs über ein LAN Kabel mit dem LAN-Switch des Routers und legt für euren Rechner die statische IP 192.168.1.100 fest (Netzmaske: 255.255.255.0 | Gateway: 0.0.0.0).

PC mit UART Schnittstelle verbinden

Für die Verbindung zum Mainboard des Routers habe ich diesen UART Wandler genutzt. Stellt sicher, dass ggf. erforderliche Treiber auf eurem PC installiert sind.

Die Kommunikation findet über eine Kommandozeile statt. Ich empfehle Putty (für Linux, MacOS und Windows) als Client für die serielle Schnittstelle. Der UART Wandler wird via USB mit dem PC verbunden und Putty gestartet. Dort wird die korrekte serielle Schnittstelle (bei mir /dev/ttyUSB=) und als „Connection type” „Serial” gewählt sowie eine Baud-Rate von 115200 („Speed”). In den Einstellungen Links wird unter „Connection => Serial” „Flow Control” auf „None” gesetzt.

Nun wird der UART Wandler mit dem Router-Mainboard verbinden. Dabei ist unbedingt zu beachten, dass die Stecker für RX und TX vertauscht angeschlossen werden. Der TX-Anschluss des Wandlers wird mit dem RX-Port des Routers verbunden und umgekehrt. GND wird mit GND verbunden und VCC wird nicht benötigt.

Nun wird der Router eingeschaltet und die serielle Verbindung mit dem „Open” Button in Putty gestartet. In der Konsole sollten jetzt Informationen zum Bootvorgang erscheinen.

Sobald die Zeile

Autobooting in 1 seconds

erschienen ist, bleibt weniger als eine Sekunde Zeit, um

tpl

in die Kommandozeile zu tippen und den Befehl mit ENTER abzuschicken. Wenn ihr eine Kommandozeile mit dem Präfix

ap135>

(oder ähnlich) vor euch habt, kann es weitergehen.

TP-Link Bootloader Kommandozeile

TP-Link Bootloader Kommandozeile

OpenWRT Firmware flashen

Gleich ist es geschafft – jetzt muss die Firmware nur noch über LAN vom PC heruntergeladen und geflashed werden. Gebt die folgenden Befehle in eure Router-Kommandozeile ein:

tftp 0x80060000 openwrt-ar71xx-generic-tl-wr1043nd-v2-squashfs-factory.bin
erase 0x9f020000 +0x7c0000
cp.b 0x80060000 0x9f020000 0x7c0000
boot.m 0x9f020000

Nach dem letzten Kommando startet der Router neu und lädt die OpenWRT Firmware. Im Terminal könnt ihr den Bootvorgang nachverfolgen. Sobald sich dort nichts mehr bewegt, drückt ENTER, um die root-Kommandozeile von OpenWRT zu erreichen.

TP-Link OpenWRT Kommandozeile

TP-Link OpenWRT Kommandozeile

OpenWRT ist jetzt fertig installiert.

Setzt die Netzwerkeinstellungen eures PCs wieder so, dass er die IP-Adresse vom Router via DHCP zugeteilt bekommt. Startet den Router über die Konsole neu:

reboot

Über die IP-Adresse 192.168.1.1 erreicht ihr nun die LuCI Weboberfläche zur Konfiguration, wo ihr umgehend ein Passwort für die Routerkonfiguration festlegen solltet. Der erste Login funktioniert übrigens noch ohne Passwort. ;)

 

Quellen: http://www.dd-wrt.com/phpBB2/viewtopic.php?p=499750 | http://wiki.openwrt.org/toh/tp-link/tl-wr1043nd#oem.installation.using.the.tftp.and.rs232.method

Den Code verbessern? Nur für mich selbst!

Permalink thomas-leister.de

Fefe zeigt in diesem Beitrag ein Problem auf, das ich bisher auch nicht gesehen habe:

Entwickler der Kryptowährungen und deren Mining-Algorithmen haben kein Interesse daran, dass der Code schnell läuft.

Ganz im Gegenteil: Der Code wird absichtlich für die Öffentlichkeit verlangsamt, damit der Rest der Welt nicht so viel Wert aus der Währung schöpfen kann wie die Entwickler / Einzelne mit ihrem optimierten Code.

Es gibt kein allgemeines Interesse, den Code zu verbessern, … schließlich sorgt man bei der Veröffentlichung von optimierten Code dafür, dass nun auch andere User schneller und mehr Coins schürfen können… der persönliche Vorteil ist dahin und der relative Gewinn damit auch. Wer Code optimiert hat, behält ihn für sich und gibt ihn nicht für die Allgemeinheit frei. Damit wird anderen zusätzlich die Möglichkeit genommen, Energie bei Mining zu sparen und die Umwelt zu entlasten.

Nebenbei hat Fefe natürlich auch mit dem Faktor Umwelt Recht: Es gibt mittlerweile unzählige Crypto-currencies und jede davon lebt von enormen Energiemengen, die für ihre Berechnung aufgewendet werden müssen. Millionen Kilowattstunden Strom sinnlos verheizen, wenn eine Kryptowährung den Bach runtergeht und keinen Wert mehr besitzt, weil es eine bessere Alternative gibt? Muss das sein?

Das Grundkonzept einer dezentralen Kryptowährung finde ich an sich nicht schlecht: Geschwindigkeit, Anonymität, Einfachheit im Umgang, … das sind alles große Vorteile. Aber zu welchem Preis? …

Wie seht ihr das? Nutzt ihr Kryptowährungen wie z.B. Bitcoin oder Litecoin? Schürft ihr selbst Münzen oder handelt ihr nur?