Hinter der grossen chinesischen (Fire-)Wall

Kürzlich war ich für eine Woche in China. Das Land ist ja dafür bekannt, dass der Internetverkehr kontrolliert, resp. teilweise geblockt wird. 2008 war ich das letzte mal in China, dort war aber Social Media bei mir noch kein Thema.
 Meine Erkenntnis über meinen China-Trip diesen Monat hat mich aber selbst erstaunt. Es waren nämlich nicht Facebook und Twitter, welche ich in dieser Woche vermisst habe, sondern Google oder irgendeine andere westliche Suchmaschine. Erst dort wurde mir bewusst, dass ich jeden Tag -zig Mal auf Suchmaschinen zugreife und bei der täglichen Arbeit nur schwer darauf verzichten kann.
 Was mir auch noch aufgefallen war, ist dass wir aber prinzipiell viel näher zusammengerückt sind. Heute ist Facetime oder Skype aus der hintersten Provinz möglich. Und plötzlich wird die Welt zu einem kleinen Dorf.
 
 
 .over-ende-und-out

SDL WorldServer: XML-Transformation über XSLT

WorldServer hat bereits eine automatische Aktion “Apply XSLT”. Diese sollte – wie ihr Name es verspricht – eine XSLT-Transformation an den Quelldateien durchführen. Leider klappt es aber nicht auf Anhieb, denn der Schritt ist nur als ‚Sample‘ konzipiert, das je nach Bedürfnis angepasst werden muss; in der Regel möchte SDL solche Anpassungen über den Professional Service anbieten.

Es geht aber trotzdem. Das Hauptproblem liegt darin, dass Ausgangsordner für sowohl Input- wie auch Output in der Action “Apply XSLT” nicht identisch sein dürfen. Deshalb muss zunächst die unkonvertierte Datei in den Zielordner kopiert werden und dann aus dem Zielordner in den Ausgangsordner mit XSLT zu transformieren. Das scheitert aber daran, dass es im Code der Automatic Action “Apply XSLT” eine Klausel gibt, die das Auslesen aus dem Zielordner und das Schreiben in den Ausgangsordner verhindert. Hier der entsprechende Code:

/*
* Sanity check the params: don’t let the user read from target
* and write to source.
*/
if (readFrom.equals(TARGET_VALUE) && writeTo.equals(SOURCE_VALUE)) {
return new WSActionResult(WSActionResult.ERROR,
„Invalid configuration: action can’t read from target “ +
„and write to source.“);
}

Die Entwicklung von SDL hat mir (Danke für den super Service!)  die Automatic Action “Apply XSLT” für die SDL WorldServer Version 10.4.4.139  so angepasst, dass das Auslesen aus dem Zielordner und das Schreiben in den Ausgangsordner erlaubt ist. Laut Aussage vom Support soll dies in zukünftigen Versionen von WorldServer dann bereits so “gefixt” sein. Für die aktuelle Installation habe ich dafür vom Support eine neue Automatic Action “Apply XSLT” bekommen (hier).

Die Lösung besteht nun darin vor der XSLT-Transformation zunächst die Ausgangsdatei aus dem Ausgangsordner mithilfe der Automatic Action “Copy source asset to target” zu kopieren.

08-03-_2016_12-59-23

 

Und anschliessend mit “Apply XSLT“ mit den Werten ‚Load XML from‘=Target und ‚Save result to‘=Source zu konvertieren.

Wie man die XSLT erstellen, erläutete ich hier nicht. Interessant ist aber zu wissen, welche Xalan-Version WorldServer https://xml.apache.org/xalan-j/ dafür verwendet und dies zumindest bei Version 11 auch noch so bleiben wird.

08-03-_2016_10-22-17

 

Als der Workflow soweit funktionierte, wollte ich auch noch die Validität der XML-Datei überprüfen, da diese “manuell” aus einer Textdatei zusammengebaut wird.

Um dies zu Prüfen wurde die Automatic Action “Validate XML” in den Workflow eingefügt und eine entsprechende DTD programmiert.

08-03-_2016_10-21-42

Leider reicht der Verweis zur DTD in der Action nicht aus, sondern es muss auch noch die DTD im XML eingefügt werden (leider). In unserem Fall sieht die XML-Datei wie folgt aus:

<?xml version=“1.0″ encoding=“UTF-8″?>
<!DOCTYPE mxml [
<!ELEMENT mxml (#PCDATA)>
]>
<mxml>

INHALT…

</mxml>

 

Resultat:

Ein Workflow, welche die Daten vom Quellverzeichnis in das Zielverzeichnis kopiert, die Gültigkeit der XML-Datei(en) überprüft und danach eine XSLT-Transformation durchführt. Nach der Übersetzung werden die Dateien auch nochmal durch eine XSLT-Transformation gelassen, mit dem Ergebniss, dass der Auftraggeber eine Textdatei zurückbekommt.

Hintergrund:

Dieser Aufwand wird betrieben, da wir in XML-Dateien mit dem Attribut maxlength=”xx” die maximale Länge des Strings im Übersetzungsprozess einfordern können. Dies ist hilfreich bei Software-Strings. In einer Textdatei (wie wir diese aus einem alten Entwicklugnstool bekommen)  kann diese Information aber nicht hinterlegt werden. Deshalb muss aus der Datei zuerst mit dem Einfügen eines XML-Headers und –Footers eine pseudo XML-Datei erzeugt werden, damit diese dann über eine XSLT-Transformation in die passende XML-Datei umgewandelt werden kann.

Wieso ein 2012er MacBook Pro mein idealer Laptop ist

Der Beitrag wurde inspiriert durch den Beitrag auf cultofmac.com „Why is Apple’s ancient 2012 MacBook Pro still so popular?“.

Nun ist es so, dass ich seit beinahe 6 Jahren das mittlerweile „veraltete“ 13-Zoll non-Retina MacBook Pro (MBP) verwende. Erst im Dezember 2015 habe ich nochmals ein neues Gerät der gleichen Bauart gekauft, das von Apple selbst als „Mitte 2012er-Modell“ bezeichnet wird.

Jetzt kann man sich fragen, wieso ich einen Laptop, der schon über 3 Jahre alt ist, überhaupt noch kaufe und dafür den Originalpreis bezahle, respektive wieso Apple so altes Zeugs überhaupt noch verkauft. Bin ich nun zum verblödeten Apple-Fanboy geworden, der für alles was einen angefressenen Apfel drauf hat, überteuerte Preise bezahlt?

 

Wieso Apple den 13-Zoll non-Retina MacBook Pro noch im Sortiment hat und wieso dieser immer noch massenhaft verkauft wird, ist ganz einfach: Das Gerät hat als letztes MacBook Pro noch ein integriertes DVD-Laufwerk und lässt sich einfach erweitern. Die Argumentation zu diesen Punkten findet man im Beitrag von cultofmac. Der schlechte Bildschirm kümmert in der 13-Zoll-Grösse (Kleine) die wenigsten Benutzer und deshalb sind die Kunden auch bereit 200 Franken/Euro mehr dafür als für das billigste MacBook Air zu bezahlen.

 

Wieso ich weiterhin dieses Gerät verwende? Nun zuerst muss ich sagen, dass ich den Vorgänger mit einem Core 2 Duo-Prozessor seit 2010 im Einsatz hatte. 6 Jahre lang ist der Laptop täglich mehrere Stunden im Einsatz gewesen und hat mich nie im Stich gelassen. Viele Leute kennen diesen Laptop von Präsentationen mit „Scrat“ (das Rattenhörnchen aus Ice Age) auf dem Deckel. Ich habe jetzt ein Update gemacht, da ich nochmals das letzte Modell dieses MacBook Pro haben wollte, bevor es definitiv und ohne Voranmeldung von Apple aus dem Sortiment geworfen wird. Sonst würde ich nach wie vor mit dem 6-Jährigen Gerät arbeiten und den Rechner erst ersetzen, wenn dieser nicht mehr funktioniert. Natürlich ist der MBP viel schwerer als alle seiner abgespeckten 13-Zoll-Nachfolger. Aber das ist für mich sekundär. Das wichtigste ist für mich weiterhin die Erweiterbarkeit und Anpassung an meine Bedürfnisse. So habe ich den Arbeitsspeicher auf 16GB erweitert, obwohl Apple max. 8GB angibt.

2016-01-07_21-20-17

 

Zudem habe ich mit einen SATA3-Adapter von hardwrk das DVD-Laufwerk ersetzt und mit einer 1TB SSD ergänzt. Das Ganze (die Original 1TB HDD und die 1TB SSD) habe ich zu einem 2TB Fusion Drive zusammengefügt. Fusion Drive ist eine von Apple entwickelte Technik, mit der eine SSD und eine mechanische Festplatte (HDD) zu einem logischen Laufwerk verbunden werden. Es handelt sich dabei um eine Weiterentwicklung von Hybridlaufwerken, doch im Unterschied zu diesen handelt es sich bei Fusion Drive um eine reine Softwarelösung. Damit bekommt man die Geschwindigkeit einer SSD mit dem billigen Speicher einer HDD. Das bedeutet für mich genug Speicher, um meine virtuellen Maschinen auf meinem MacBook Pro zu verwalten.

SSD und hardwrk-Adapter anstatt DVD-Aufwerk

SSD und hardwrk-Adapter anstatt DVD-Aufwerk

Den neuen MBP habe ich mit dem schnellsten verfügbaren Prozessor gekauft (2.9GHz Intel Core i7), der aber so leider nicht im lokalen Apple Store zu bekommen ist, sondern erst nach meiner Bestellung in China zusammengebaut und dann mir nach Hause gesendet wurde. Laut Performancetests soll der Prozessor meines „neuen“ 2012er MacBook Pro lediglich um 10% langsamer sein, als die aktuellen 2015er MacBooks mit den schnellsten Prozessoren. Damit kann ich sehr gut leben.

Nur, dass man mich nicht falsch versteht. Würde es diesen MacBook Pro in der „offenen“ Bauweise in einer Retina-Ausführung geben, dann hätte ich diesen gekauft. Nicht, weil ich diese Auflösung auf dem Laptop je gebraucht hätte, sondern um damit einen externen 4K-Bildschirm zu betreiben zu können. Aber „offen“ und erweiterbar/reparierbar ist für mich wichtiger als 4K, das ich vielleicht einmal brauchen könnte.

Und zum Schluss noch über das Argument, dass der 13-Zoll-Bildschirm für ein professionelles Arbeiten zu klein ist: Bei einem Windows-Laptop gebe ich recht. Das Umschalten/Ausblenden der Anwendungen benötigt immer eine „umständliche“ Bewegung des Zeigers und ein Klicken oder das Verwenden eines Kurzbefehls auf der Tastatur. Beim OS X platziere ich die Anwendungen auf mehreren Desktops und schalte mit einer Wischbewegung zischen den Desktops, resp. Anwendungen hin und her. Daraus resultiert ein unterbrechungsfreier Workflow, der mich mit einem MacBook Pro viel produktiver arbeiten lässt. Dies, die langlebige Hardware, die kostenlose Standard-Software und kostenlosen Betriebssystem-Updates lassen die höheren Beschaffungskosten für einen MacBook Pro mehr als rechtfertigen. Aber am Schluss ist dies meine subjektive Meinung.

 

.over-and-out

PartsPublisher: Interaktive CD für identische Maschinen schneller erstellen

Mit der Zunahme der Maschinen im Parts-Publisher wird auch der Publikationsprozess viel langsamer. Dies auch wegen einiger konzeptionellen Schwächen des Tools. Trotzdem bringen wir damit täglich mehrere Ersatzteilkataloge erfolgreich heraus.
Nun ist es so, dass wir teilweise mehrere identische Maschinen an einen Kunden liefern. Unterscheiden tun sich diese lediglich durch die Seriennummer der Maschine (Maschinennummer). Damit man nicht jede Stückliste jeder Maschine in den Parts-Publisher einlesen und publizieren muss, habe ich geschaut, wie man dies auch über etwas im publizierten Code zu stochern ändern könnte. Nach etwa 10 Minuten hatte ich die Lösung.

Hier also die Anleitung dazu:

  1. CD Verzeichnis der Erstmaschine kopieren. Danach nur noch in der Kopie arbeiten!
  2. Datei «Etk.dwk» mit dem Texteditor öffnen.
  3. Nach der «alten» Maschinennummer (hier als Beispiel 321045) suchen. Wenn der Treffer bei <KVARI>s312045</KVARI> ist, dann die neue Maschinennummer eintragen (im folgenden Screenshot die 312047).
    Achtung: Das vorgängige Zeichen lassen.
    09-12-_2015_13-46-48
  4. Speichern.
  5. Datei schliessen.
  6. Im Verzeichnis Data die Datei «PPData.h2.db» öffnen.
  7. Dort im Texteditor alle alten Erstmaschinennummern (z.B. 321045) durch die Folgemaschinennummer ersetzen lassen (z.B. 312047).
    09-12-_2015_13-48-11
  8. Speichern.
  9. Datei schliessen.
  10. CD starten und überprüfen.
  11. Fertig und ca. eine Stunde Arbeit gespart.

Atlassian Confluence auf einem Synology NAS installieren

UPDATE: Die Installation von Confluence ging zwar ohne Probleme, jedoch ist bei jedem Neustart des Servers auch die komplette Installation wieder zurückgesetzt worden. Abhilfe gab es erst durch ein anderes Docker-Paket. Die Anleitung wurde entsprechend aktualisiert.

Es gibt zwei Möglichkeiten Confluence auf ein Synology NAS zu bringen: Eine konventionelle Installation mit vielen Herausforderungen oder einfach als Docker-Paket herunterzuladen.

Natürlich habe ich mich für die einfache Variante entschieden. Hier ist das Vorgehen:

  1. Docker-App installieren. (falls noch nicht installiert)
  2. Docker-Paket herunterladen. Hier MUSS das Paket «derjudge/confluence» gewählt werden. Nachtrag: Ich habe einige Wochen mit den anderen Paketen verloren!
    2015-11-14_00-03-27
  3. Container erstellen. Name vergeben und «Ports automatisch zuordnen» NICHT auswählen. Ports manuell zuweisen. Ich habe als lokalen Port den 32768 und als Container-Port den 8090 gewählt.
    2015-11-14_00-05-29
  4. Confluence starten.
    2015-11-14_00-08-02
  5. Confluence über die öffentliche URL des NAS mit dem «lokalen» Port öffnen. Also http://xxxxxx.xx:32768 aufrufen und fertig installieren. Eventuell eigene Firewall noch bei diesem Port öffnen/auf den Server weiterleiten.
    2015-11-13_23-57-262015-11-13_23-57-26
  6. Das Interessante an dem Docker von «derjudge/confluence» ist, dass auch ein PostgreSQL dabei ist. Somit muss nicht auf die interne Datenbank von Confluence zugegriffen werden. Ist zwar entgegen der Idee der Docker-Container. Vereinfacht die Installation aber ungemein. Einfach bei der Anleitung unter https://hub.docker.com/r/derjudge/confluence/ folgen, dann kommt alles gut!
    2015-12-06_10-35-18
  7. Confluence kann nun betrieben werden.
    2015-11-13_23-58-24

Und jetzt habe ich meine Teststellung, um die Scroll-Erweiterungen von k15t zu testen. Dazu aber später mehr.

.over-and-out

SDL: XML-Filter anlegen

Lange hat die Verwendung eines wirklichen XML-Filters wenig Sinn gemacht. Zu aufwändig war es und das gleiche Resultat hat man mit einem einfachen Textfilter auch hinbekommen.

Jetzt hat sich das Ganze aber geändert. Neu kann Studio auch die maximale Länge eines Strings überwachen. Das bedeutet, dass der Softwareentwickler in seiner Umgebung eingeben kann, wieviel Platz es im Dialog hat und diese Information dem XML mitgeben. Und diese Information wird in Studio nun ausgewertet und überwacht. Deshalb sind die Zeiten vorbei, wo die Erstübersetzung nochmals an den Übersetzer musste, weil diese unmöglich im Dialog oder Menüfenster Platz hatte.

Da ich die Erfahrung gemacht habe, dass SDL keinen Filter von grundauf kostenlos erstellt, sondern dies nur über den überteuerten Professional Service anbietet, biete ich hier die kostenlose Anleitung, wie vorzugehen ist.

Ich zeige die Einstellungen in SDL WorldServer. In SDL Studio ist dies gleich, teilweise sehen die Fenster einfach unterschiedlich aus. Ich habe es nur soweit dokumentiert, wie ich es selbst benötige, um einen weiteren Filter konfigurieren zu können.

Der Aufbau der XML-Datei

worddav8f6e66f8846cc58db3c49d6dae09becf(1) Der obligate Header
(2) Das Rootelement, das der Erkennung der XML-Datei dient und auch gleich den Sprachschlüssel der Quelldatei beinhaltet. Dieser Sprachschlüssel wird von Studio dann in die Zielsprache geändert.
(3) Medaten wie Ident=“ “ oder ContextHint=“ „, welche ausgeblendet werden
(4) maxlength limitiert die Zeichenzahl im Zieltextsegment
(5) Der eigentlich zu übersetzende Text

Filter in WorldServer

Der neue Filter ist vom Typ: Custom XML Studio File Type

worddav09672b060c3d782a3409d47f695969f3

Das Basiselement ist das Element, mit dem ein Parser das XML identifizieren kann. Leider ist diese Funktion bei WorldServer 10.4.2 noch nicht implementiert. In Studio funktioniert es und man kann mehrere MIME-Typen mit *.xml angelegen. Bei WorldServer geht dies nicht und bedeutet, dass pro XML-Typ ein anderes Dateiformat gewählt werden muss.

worddave2bd2b61f789c0e4a26fa5b4b3eb1906

Im Reiter «Parser» stehen alle Regeln, nach denen der zu übersetzende Text und Metadaten gefiltert werden.

worddav02ab8fe9375cae9431052e066c6e7bbf

Die ersten drei geben die Struktur an und die letzten vier Element die Metadaten

worddav7001fe912a2928ad4c8c3384ba1da523worddavfb6751476659f19a78ffd69c944fd30bworddav275b7a70115ebfd6af841290dcbec837

Im Element «Item» ist das Hauptelement mit den Inhalten drin.

worddav2e1c9d2e6f579767ad25d19c08fd987f

(1) Beim Anklicken von [Bearbeiten…] bei Struktur-Info wird der Dialog für die «Eigenschaften der Strukturinformation» angezeigt.

worddav45779a352226896b32534b27163d1330

Diese muss wie folgt angelegt werden.

worddav6e59888a09ed289c7d30e520893698a7

(2) Unter «Regel bearbeiten» [Erweitert…] anklicken. Dort muss noch das Element für die maximale Länge definiert werden. In diesem Fall ist es @maxlength.
Zusatzinfo: «maxlenght=“0″» läuft ohne Fehlermeldung durch den Parser, aber in Studio wird dann eine Längenbeschränkung von 0 angezeigt. Deshalb sollte in diesem Fall «maxlength» gar nicht angegeben werden.

worddavc0e45f45f378ab5453910d3c93fac1b3

Als letztes sind noch die Attribute zu kennzeichnen, welche nicht übersetzt werden. Leider können diese nicht als Attribut und „Nicht zu übersetzen“ angelegt werden. Es muss ein Umweg über die Erfassung als XPath erfolgen. Ich nehme an, dass dies ein Bug von SDL WorldServer ist, sonst kann ich mir einen solchen Blödsinn nicht erklären.

worddav3e835db6a92d3f0a1561705f0fda271eworddav34cbdf89efec39128c57c0f547cf7a2dworddav09cb946fd0ad884897144982ac1005e2worddav71d17cec155b022b6e2cb4fbe34f759a

Hier die Entitys, welche umgewandelt werden sollen. Dies betrifft aber nur den zu übersetzenden Text.

worddav9a9f9f6c82f5c6a256e2e38938c0d659

Beliebigen Präfix wählen und die URL von w3 eingeben.

worddav9f3dc4575087755828394bd42e116ee7worddavb4b2f4aa78f1559a0723c310d0fdf3d1worddav9df4e20d828e0d9268bd1edb4a01c5c1

Im «Embedded Content» können RegEx-Filter konfiguriert werden, um Platzhalter und sonstige Ausdrücke zu sperren.

worddavd3defc1bdc16eb17270066d47c8984fe

Man unterscheidet zwischen Tag-Paaren. Also alles was zwischen diesen Tag liegt, wird für die Übersetzung gesperrt.

worddav2bd90c1d6b9165a78ab7f2ba945dfb51

Und Platzhaltern, welche einen Teil/eine Stelle im Text definieren. In der Regel sind dies Variablen.

 

Zum Schluss noch etwas…

Auf ein weiteres Problem muss man auch noch achten. Es geht um die Verarbeitung mehrerer XML-Filter. SDL Studio kann anhand des Rootelementes selbst entscheiden, zu welchem Filter eine XML-Datei passt. SDL WorldServer kann dies nicht, obwohl diese Information im Filter definiert werden muss. Nun, wenn diese Information nicht ausgewertet wird, wieso muss man diese dann erfassen?

Das Resultat ist aber, dass SDL WorldServer in der aktuellen Version 10.4.4 nur eine einzige XML-Datei mit der Dateierweiterung .xml verarbeiten kann. Eine weitere XML-Datei muss eine andere Dateierweiterung haben oder zu einer anderen Filtergruppe gehören, mit dem Resultat, das der Benutzer dann den richtigen Filter auswählen müsste… Was mich verärgert, ist der Fakt, dass Studio das Problem nicht hat und mehrere XML-Dateien anhand des Rootelementes unterscheiden kann. Man beachte auch, dass ich Studio ab 99€ bekomme und WorldServer etwa das tausendfache kostet. Ein Lösung für WorldServer 11.0 wurde mir auch nicht zugesichert.

 

.over-and-out

 

 

 

 

 

Confluence Bereich von einer Installation in die andere kopieren

Bereiche von einer Confluence-Installation in eine andere zu kopieren ist simpel. Hier die Anleitung dazu.

Bereich exportieren

  1. Den Bereich öffnen.
  2. Links unten an der Randleiste «Bereich konfigurieren», «Inhalte» auswählen.
    16-11-_2015_08-47-25–> Seite «Bereich konfigurieren» öffnet sich.
  3. «Export» auswählen.
    16-11-_2015_08-47-40–> Seite «Export» öffnet sich.
  4. «XML-Format» auswählen und [Weiter >>] anklicken.
    16-11-_2015_08-47-54
  5. «Vollständiger Export» auswählen und [Exportieren] anklicken.
    16-11-_2015_08-48-10–> Export startet.
  6. Wenn Export abgeschlossen ist, «Download here» zum Herunterladen anklicken.
    16-11-_2015_08-48-47–> Die zip-Datei wird auf dem Rechner gespeichert.

 

Bereich importieren

  1. Confluence-Administration «Allgemeine Konfiguration» auswählen.
    16-11-_2015_09-00-44–> Seite «Administatorzugriff» öffnet sich. Dort das Admin-Passwort eingeben.
  2. Im Seitenbaum und Administration «Sichern und Wiederherstellen» auswählen.
    –> Seite «Sichern und Wiederherstellen» öffnet sich.
  3. Unter «Backup einer Installation/eines Bereiches hochladen und wiederherstellen» die vorher exportierte zip-Datei zuordnen und [Hochladen und Wiederherstellen] anklicken.
    16-11-_2015_09-08-25–> Import startet. Es kann auch sein, dass Warnhinweise kommen, wenn die ID des Bereiches bereits existiert. Dann wird ein bestehender Bereich überschrieben!
  4. Wenn der Import abgeschlossen ist, erscheint «Complete.»
    –> Der importierte Bereich ist nun verfügbar.

Der Import funktioniert problemlos. Nur Referenzen auf Benutzer, welche im neuen System nicht angelegt sind, werden nicht gefunden, aber damit kann man umgehen.

 

Bei der Confluence Hilfe kann man unter den folgenden Themen auch dazu nachlesen:

  • Exporting Confluence Pages and Spaces to XML
  • Restoring a Space

 

.over-and-out

Synology DS1513+ und ASUS USB-AC56

Da ich nur Dank dem kombinieren verschiedenster Forumseinträge ein Lösung fand, hier die Zusammenfassung dazu:

  • Synology DSM 5.2-5644 in Kombination mit dem DS1513+ unterstützt USB WLAN-Adapter mit bis zu 867 Mbps (5 GHz).
  • Der USB WLAN-Adapter ASUS USB-AC56 läuft im ac-Modus auf dem Synology-NAS mit ca. 800 Mbps.
  • Dafür muss dieser zwingend im USB3-Port angeschlossen werden. Im USB2-Port kann die Datenmenge nicht übertragen werden. (1. Fallstrick)
  • Die Verbindung über WLAN-Manager der DSM ist Fehlerhaft. Das bedeutet, dass auch bei einer richtigen Passworteingabe die Meldung kommt, dass diese falsch ist. Lösung: richtiges Passwort eingeben und nach der Fehlermeldung den Dialog schliessen. Einige Minuten später verbindet sich aber das NAS mit dem WLAN. Eventuell muss aber auch das System neu gestartet werden. (2. Fallstrick)
  • Eine manuelle Veränderung der IP-Adresse muss eventuell auch mehrmals eingegeben werden. (3. Fallstrick)

Niemals versuchen irgendwelche Linux-Treiber von ASUS zu installieren oder sonst noch Dateien des Betriebssystemes zu ändern. Dies ist nicht nötig und führte bei mindestens einem Forumsteilnehmer zu einer Neuinstallation des Systems…

USB-WLAN.png

Wenn man die Nerven behält und nicht gleich das NAS aus dem Fenster wirft, ist das Einrichten ziemlich einfach. Und wenn der USB WLAN-Adapter einmal eingerichtet ist, dann läuft er auch nach einen Systemneustart wieder weiter.

.over-and-out

DITA und der deutschsprachige Raum

Hier eine Antwort auf den Blogbeitrag von «Die Redakteuse» zum Thema «DITA & Deutschland».

dita_oasis_thumb.jpgIch bin schon seit bald 20 Jahren in der Technischen Dokumentation tätig. Persönlich habe ich bis heute noch nie DITA in einem Projekt verwendet und schon vor Jahren habe ich es als Hype der Amerikaner und Dienstleister/Toolanbieter abgestempelt. Hinzu kommt, dass viele Länder ausserhalb des deutschsprachigen Raumes im Bereich der Technischen Dokumentation unterentwickelt sind. Und wie sagt man so schön: «Bei den Blinden ist der Einäugige ein König!» Auch in den USA gibt es noch viele Firmen (ausserhalb der Mega-Konzerne), die genauso wenig ein Ahnung von strukturierter Technischer Dokumentation haben, wie es in Deutschland in der Regel ein Kleinbetrieb auf dem Land hat. Garagenfirmen sind nicht immer cool ;-).

Wieso vor allem in der DACH-Region (Deutschland, Österreich, Schweiz) sehr wenig Dokumentation mit DITA umgesetzt wurde, hat für mich zwei Gründe: Jürgen Muthig und Robert Schäflein-Armbruster. Als ich mich vor 15 Jahren mit Strukturierung von Daten auseinandersetzen musste, gab es nur wenig bekannte Strukturierungsstandards auf dem Markt. Das Beste zu dieser Zeit war Funktionsdesign. Im Gegensatz zu den USA haben die Unternehmen in der DACH-Region eben schon früh das Bedürfnis gehabt die Daten strukturiert zu erfassen, um diese auch standardisiert Weiterverarbeiten zu können. Deshalb hat Funktionsdesign oder eine Ableitung davon dann in den Nullerjahren in vielen Firmen auch Einzug gehalten. Und genau diese 10-15 Jahre sind auch der Zeitraum, die die USA im Bereich Technische Dokumentation hinter uns sind. Bitte nicht falsch verstehen: Es gibt in den USA einige brillante Experten, aber die klassische Industrie ausserhalb der grossen IT-Häuser hat einfach diesen Rückstand.

Müsste ich heute eine Dokumentation neu aufziehen, würde ich sicherlich DITA in Erwägung ziehen, so wie Funktionsdesign und PI-Mod. Und vielleicht würde ich auch ein Mittelding von allem einsetzen.

Egal welche Strukturierungsmethode man verwendet, es gilt unbedingt das Folgende zu beachten: Die Strukturierungsmethode ist am Schluss nur das Mittel zum Zweck. Das heisst zuerst schaue ich, was ich machen will und dann suche ich das Tool, mit diesem ich es am einfachsten/besten umsetzen kann. Und nie, nie, nie umgekehrt! Falls man beim mittelständischen Betrieb dann feststellt, dass XML und/oder strukturierte Inhalte nicht benötigt werden und ein technischer Overkill sind, dann sollte man auch den Mut haben darauf zu verzichten…

Eine weitere Meinung zum Thema «DITA & Deutschland» gab es dazu auch noch von Markus Nickl auf dessen Blog.

.over-and-out

AppleTV 4 mit Plex

Als Besitzer eines wenig gebrauchten AppleTV 2 habe ich die Ankündigung, dass nun ein weiterer überteuerter Nachfolger auf den Markt kommt, so ganz nebenbei zur Kenntnis genommen. Irgendwie hatte ich schon etwas komplett neues, innovatives erwartet. Meine Hauptanwendung ist das Streamen von Filmen und Serien vom eigenen Server. Dies mache ich vorzugsweise mit Plex und da AppleTV 2 keine wirkliche Möglichkeit zum Streamen gibt (ausser mühsam über Airplay), hat auch noch Chromcast in meinem Haushalt Einzug gehalten. Das heisst, AppleTV 2 wurde bei mir nur noch für Keynotes oder noch seltener für AirPlay verwendet.

Was dann passierte, hat nun alles geändert: Ich bekam ein Newsletter von Plex, dass die neue AppleTV-App auch schon fertig und verfügbar sei. Dies war der Grund, wieso ich mir dann doch ein AppleTV 4 zugelegt habe. Es wurde ja schon ausführlich über das fehlende Siri in der Schweiz gesprochen und auch wie schlecht der aktuelle Appstore noch sei. Aber das wird sich sicher in den nächsten Wochen oder Monaten noch ändern. Für mich spielt zur Zeit nur etwas eine Rolle: Wie gut ist die Plex-App auf AppleTV?

Wie definiert man nun, ob eine App gut oder schlecht ist? Ein Möglichkeit ist es, dass man diese mit dem Vorgänger oder Anwendungen auf anderen Plattformen vergleicht. Plex lief bei mir schon auf einem Popcorn-Hour, dann auf einem Raspberry Pi und zuletzt auf Android- und iOS-Apps über Chromecast. Das grösste Problem bis heute war die Netzwerk-Performance, resp. die Leistung des Servers, um die Daten vor dem Streamen umzurechnen. Da gab es ganz unterschiedliche Erlebnisse, mit dem Ergebnis, dass ich heute nur noch die volle Qualität streame und somit den Server vom Transcodieren entlaste. Dies funktioniert auch ganz gut, bis zu dem Zeitpunkt, bei dem sich das Netzwerk „verschluckt“ resp. ein weiterer (langsamer) Client auch Mediadaten will und die Gesamtperformance des Netzwerkes reduziert… Das Problem ist aber inzwischen auch gelöst: Mit einem Triband-Router werden nur noch schnelle ac-Clients auf einer der schnellen Frequenzen gelassen (1300 Mbit/s) und somit kann hier die volle Auflösung bis 4K gestreamt werden.

Nun zur Erfahrung mit AppleTV 4: Die Bedienung ist gewöhnungsbedürftig. Gott-sei-Dank muss man sich nach der Installation der App nur einmal bei Plex anmelden. Danach kann man in der App mit Swipegesten navigieren. Die Darstellung der Inhalte in der App ist gefällig, wobei ich auch hier noch einige Verbesserungen in den nächsten Wochen erwarte. Für 6 Wochen Arbeit ist das Resultat jedoch schon ausgezeichnet. Wie sieht es denn nun mit der Performance aus? Die ist super. Sobald man einen Film oder eine Episode ausgewählt hat, fängt das Stück unvermindert auf dem TV an zu laufen. Vorbei sind die Zeiten mit Chromecast, als man noch 20 Sekunden aufs Buffering warten musste. In der kurzen Zeit hatte ich keinen einzigen Aussetzer und dies auch mit 1080p-Filmen mit 12GB Grösse. Und nun kommt das Beste: Als ich am Server etwas umstellen musste, habe ich diesen Offline geschaltet. Der Plex-Server war weg vom Netzwerk – offline. Trotzdem lief die Episode auf dem Fernseher ohne Unterbruch weiter. Es erschien nur eine Einblendung, dass der Medienserver offline sei. Trotzdem lief die Episode weiter. Was war passiert, resp. was ist der Grund dafür? Nun, da die Daten ja nicht über ein unsichtbare Kabel auf AppleTV 4 gelangten, muss es daran liegen, dass Daten auf dem Gerät zwischengespeichert werden. Und zwar nicht wenige, denn erst nach etwa fünf Minuten stoppte die Wiedergabe. Einfach genial.

Plex auf AppleTV 4 bedeutet für mich vor allem eines: Unterbrechungsfreies Full-HD-Streaming im bekannten Apple-Umfeld. Ist AppleTV 4 das Geld dafür wert? Nun, wenn man es so anschaut, dann ist es als Streamingkiste sehr teuer, aber ein ungetrübtes Sehrerlebnis ist mir dies wert. Und dass dies erst der anfang der Möglichkeiten dieser Box ist, kommt auch nach dazu. Mal schauen, was uns die nächsten paar Wochen bescheren. Und Zattoo arbeitet ja auch schon an einer App. Bald kann ich das Kabelfernsehen kündigen und monatlich die Kosten sparen. Noch hoffe ich, dass die Kinder nicht schnallen, dass man damit auch Gamen kann.

 

.over-ende-und-out

© 2016 hacker.li

Theme by Anders NorenUp ↑