MonatNovember 2015

SDL: XML-Filter anlegen

Lange hat die Verwendung eines wirklichen XML-Filters wenig Sinn gemacht. Zu aufwändig war es und das gleiche Resultat hat man mit einem einfachen Textfilter auch hinbekommen.

Jetzt hat sich das Ganze aber geändert. Neu kann Studio auch die maximale Länge eines Strings überwachen. Das bedeutet, dass der Softwareentwickler in seiner Umgebung eingeben kann, wieviel Platz es im Dialog hat und diese Information dem XML mitgeben. Und diese Information wird in Studio nun ausgewertet und überwacht. Deshalb sind die Zeiten vorbei, wo die Erstübersetzung nochmals an den Übersetzer musste, weil diese unmöglich im Dialog oder Menüfenster Platz hatte.

Da ich die Erfahrung gemacht habe, dass SDL keinen Filter von grundauf kostenlos erstellt, sondern dies nur über den überteuerten Professional Service anbietet, biete ich hier die kostenlose Anleitung, wie vorzugehen ist.

Ich zeige die Einstellungen in SDL WorldServer. In SDL Studio ist dies gleich, teilweise sehen die Fenster einfach unterschiedlich aus. Ich habe es nur soweit dokumentiert, wie ich es selbst benötige, um einen weiteren Filter konfigurieren zu können.

Der Aufbau der XML-Datei

worddav8f6e66f8846cc58db3c49d6dae09becf(1) Der obligate Header
(2) Das Rootelement, das der Erkennung der XML-Datei dient und auch gleich den Sprachschlüssel der Quelldatei beinhaltet. Dieser Sprachschlüssel wird von Studio dann in die Zielsprache geändert.
(3) Medaten wie Ident=“ “ oder ContextHint=“ „, welche ausgeblendet werden
(4) maxlength limitiert die Zeichenzahl im Zieltextsegment
(5) Der eigentlich zu übersetzende Text

Filter in WorldServer

Der neue Filter ist vom Typ: Custom XML Studio File Type

worddav09672b060c3d782a3409d47f695969f3

Das Basiselement ist das Element, mit dem ein Parser das XML identifizieren kann. Leider ist diese Funktion bei WorldServer 10.4.2 noch nicht implementiert. In Studio funktioniert es und man kann mehrere MIME-Typen mit *.xml angelegen. Bei WorldServer geht dies nicht und bedeutet, dass pro XML-Typ ein anderes Dateiformat gewählt werden muss.

worddave2bd2b61f789c0e4a26fa5b4b3eb1906

Im Reiter «Parser» stehen alle Regeln, nach denen der zu übersetzende Text und Metadaten gefiltert werden.

worddav02ab8fe9375cae9431052e066c6e7bbf

Die ersten drei geben die Struktur an und die letzten vier Element die Metadaten

worddav7001fe912a2928ad4c8c3384ba1da523worddavfb6751476659f19a78ffd69c944fd30bworddav275b7a70115ebfd6af841290dcbec837

Im Element «Item» ist das Hauptelement mit den Inhalten drin.

worddav2e1c9d2e6f579767ad25d19c08fd987f

(1) Beim Anklicken von [Bearbeiten…] bei Struktur-Info wird der Dialog für die «Eigenschaften der Strukturinformation» angezeigt.

worddav45779a352226896b32534b27163d1330

Diese muss wie folgt angelegt werden.

worddav6e59888a09ed289c7d30e520893698a7

(2) Unter «Regel bearbeiten» [Erweitert…] anklicken. Dort muss noch das Element für die maximale Länge definiert werden. In diesem Fall ist es @maxlength.
Zusatzinfo: «maxlenght=“0″» läuft ohne Fehlermeldung durch den Parser, aber in Studio wird dann eine Längenbeschränkung von 0 angezeigt. Deshalb sollte in diesem Fall «maxlength» gar nicht angegeben werden.

worddavc0e45f45f378ab5453910d3c93fac1b3

Als letztes sind noch die Attribute zu kennzeichnen, welche nicht übersetzt werden. Leider können diese nicht als Attribut und „Nicht zu übersetzen“ angelegt werden. Es muss ein Umweg über die Erfassung als XPath erfolgen. Ich nehme an, dass dies ein Bug von SDL WorldServer ist, sonst kann ich mir einen solchen Blödsinn nicht erklären.

worddav3e835db6a92d3f0a1561705f0fda271eworddav34cbdf89efec39128c57c0f547cf7a2dworddav09cb946fd0ad884897144982ac1005e2worddav71d17cec155b022b6e2cb4fbe34f759a

Hier die Entitys, welche umgewandelt werden sollen. Dies betrifft aber nur den zu übersetzenden Text.

worddav9a9f9f6c82f5c6a256e2e38938c0d659

Beliebigen Präfix wählen und die URL von w3 eingeben.

worddav9f3dc4575087755828394bd42e116ee7worddavb4b2f4aa78f1559a0723c310d0fdf3d1worddav9df4e20d828e0d9268bd1edb4a01c5c1

Im «Embedded Content» können RegEx-Filter konfiguriert werden, um Platzhalter und sonstige Ausdrücke zu sperren.

worddavd3defc1bdc16eb17270066d47c8984fe

Man unterscheidet zwischen Tag-Paaren. Also alles was zwischen diesen Tag liegt, wird für die Übersetzung gesperrt.

worddav2bd90c1d6b9165a78ab7f2ba945dfb51

Und Platzhaltern, welche einen Teil/eine Stelle im Text definieren. In der Regel sind dies Variablen.

 

Zum Schluss noch etwas…

Auf ein weiteres Problem muss man auch noch achten. Es geht um die Verarbeitung mehrerer XML-Filter. SDL Studio kann anhand des Rootelementes selbst entscheiden, zu welchem Filter eine XML-Datei passt. SDL WorldServer kann dies nicht, obwohl diese Information im Filter definiert werden muss. Nun, wenn diese Information nicht ausgewertet wird, wieso muss man diese dann erfassen?

Das Resultat ist aber, dass SDL WorldServer in der aktuellen Version 10.4.4 nur eine einzige XML-Datei mit der Dateierweiterung .xml verarbeiten kann. Eine weitere XML-Datei muss eine andere Dateierweiterung haben oder zu einer anderen Filtergruppe gehören, mit dem Resultat, das der Benutzer dann den richtigen Filter auswählen müsste… Was mich verärgert, ist der Fakt, dass Studio das Problem nicht hat und mehrere XML-Dateien anhand des Rootelementes unterscheiden kann. Man beachte auch, dass ich Studio ab 99€ bekomme und WorldServer etwa das tausendfache kostet. Ein Lösung für WorldServer 11.0 wurde mir auch nicht zugesichert.

 

.over-and-out

 

 

 

 

 

Confluence Bereich von einer Installation in die andere kopieren

Bereiche von einer Confluence-Installation in eine andere zu kopieren ist simpel. Hier die Anleitung dazu.

Bereich exportieren

  1. Den Bereich öffnen.
  2. Links unten an der Randleiste «Bereich konfigurieren», «Inhalte» auswählen.
    16-11-_2015_08-47-25–> Seite «Bereich konfigurieren» öffnet sich.
  3. «Export» auswählen.
    16-11-_2015_08-47-40–> Seite «Export» öffnet sich.
  4. «XML-Format» auswählen und [Weiter >>] anklicken.
    16-11-_2015_08-47-54
  5. «Vollständiger Export» auswählen und [Exportieren] anklicken.
    16-11-_2015_08-48-10–> Export startet.
  6. Wenn Export abgeschlossen ist, «Download here» zum Herunterladen anklicken.
    16-11-_2015_08-48-47–> Die zip-Datei wird auf dem Rechner gespeichert.

 

Bereich importieren

  1. Confluence-Administration «Allgemeine Konfiguration» auswählen.
    16-11-_2015_09-00-44–> Seite «Administatorzugriff» öffnet sich. Dort das Admin-Passwort eingeben.
  2. Im Seitenbaum und Administration «Sichern und Wiederherstellen» auswählen.
    –> Seite «Sichern und Wiederherstellen» öffnet sich.
  3. Unter «Backup einer Installation/eines Bereiches hochladen und wiederherstellen» die vorher exportierte zip-Datei zuordnen und [Hochladen und Wiederherstellen] anklicken.
    16-11-_2015_09-08-25–> Import startet. Es kann auch sein, dass Warnhinweise kommen, wenn die ID des Bereiches bereits existiert. Dann wird ein bestehender Bereich überschrieben!
  4. Wenn der Import abgeschlossen ist, erscheint «Complete.»
    –> Der importierte Bereich ist nun verfügbar.

Der Import funktioniert problemlos. Nur Referenzen auf Benutzer, welche im neuen System nicht angelegt sind, werden nicht gefunden, aber damit kann man umgehen.

 

Bei der Confluence Hilfe kann man unter den folgenden Themen auch dazu nachlesen:

  • Exporting Confluence Pages and Spaces to XML
  • Restoring a Space

 

.over-and-out

Synology DS1513+ und ASUS USB-AC56

Da ich nur Dank dem kombinieren verschiedenster Forumseinträge ein Lösung fand, hier die Zusammenfassung dazu:

  • Synology DSM 5.2-5644 in Kombination mit dem DS1513+ unterstützt USB WLAN-Adapter mit bis zu 867 Mbps (5 GHz).
  • Der USB WLAN-Adapter ASUS USB-AC56 läuft im ac-Modus auf dem Synology-NAS mit ca. 800 Mbps.
  • Dafür muss dieser zwingend im USB3-Port angeschlossen werden. Im USB2-Port kann die Datenmenge nicht übertragen werden. (1. Fallstrick)
  • Die Verbindung über WLAN-Manager der DSM ist Fehlerhaft. Das bedeutet, dass auch bei einer richtigen Passworteingabe die Meldung kommt, dass diese falsch ist. Lösung: richtiges Passwort eingeben und nach der Fehlermeldung den Dialog schliessen. Einige Minuten später verbindet sich aber das NAS mit dem WLAN. Eventuell muss aber auch das System neu gestartet werden. (2. Fallstrick)
  • Eine manuelle Veränderung der IP-Adresse muss eventuell auch mehrmals eingegeben werden. (3. Fallstrick)

Niemals versuchen irgendwelche Linux-Treiber von ASUS zu installieren oder sonst noch Dateien des Betriebssystemes zu ändern. Dies ist nicht nötig und führte bei mindestens einem Forumsteilnehmer zu einer Neuinstallation des Systems…

USB-WLAN.png

Wenn man die Nerven behält und nicht gleich das NAS aus dem Fenster wirft, ist das Einrichten ziemlich einfach. Und wenn der USB WLAN-Adapter einmal eingerichtet ist, dann läuft er auch nach einen Systemneustart wieder weiter.

.over-and-out

DITA und der deutschsprachige Raum

Hier eine Antwort auf den Blogbeitrag von «Die Redakteuse» zum Thema «DITA & Deutschland».

dita_oasis_thumb.jpgIch bin schon seit bald 20 Jahren in der Technischen Dokumentation tätig. Persönlich habe ich bis heute noch nie DITA in einem Projekt verwendet und schon vor Jahren habe ich es als Hype der Amerikaner und Dienstleister/Toolanbieter abgestempelt. Hinzu kommt, dass viele Länder ausserhalb des deutschsprachigen Raumes im Bereich der Technischen Dokumentation unterentwickelt sind. Und wie sagt man so schön: «Bei den Blinden ist der Einäugige ein König!» Auch in den USA gibt es noch viele Firmen (ausserhalb der Mega-Konzerne), die genauso wenig ein Ahnung von strukturierter Technischer Dokumentation haben, wie es in Deutschland in der Regel ein Kleinbetrieb auf dem Land hat. Garagenfirmen sind nicht immer cool ;-).

Wieso vor allem in der DACH-Region (Deutschland, Österreich, Schweiz) sehr wenig Dokumentation mit DITA umgesetzt wurde, hat für mich zwei Gründe: Jürgen Muthig und Robert Schäflein-Armbruster. Als ich mich vor 15 Jahren mit Strukturierung von Daten auseinandersetzen musste, gab es nur wenig bekannte Strukturierungsstandards auf dem Markt. Das Beste zu dieser Zeit war Funktionsdesign. Im Gegensatz zu den USA haben die Unternehmen in der DACH-Region eben schon früh das Bedürfnis gehabt die Daten strukturiert zu erfassen, um diese auch standardisiert Weiterverarbeiten zu können. Deshalb hat Funktionsdesign oder eine Ableitung davon dann in den Nullerjahren in vielen Firmen auch Einzug gehalten. Und genau diese 10-15 Jahre sind auch der Zeitraum, die die USA im Bereich Technische Dokumentation hinter uns sind. Bitte nicht falsch verstehen: Es gibt in den USA einige brillante Experten, aber die klassische Industrie ausserhalb der grossen IT-Häuser hat einfach diesen Rückstand.

Müsste ich heute eine Dokumentation neu aufziehen, würde ich sicherlich DITA in Erwägung ziehen, so wie Funktionsdesign und PI-Mod. Und vielleicht würde ich auch ein Mittelding von allem einsetzen.

Egal welche Strukturierungsmethode man verwendet, es gilt unbedingt das Folgende zu beachten: Die Strukturierungsmethode ist am Schluss nur das Mittel zum Zweck. Das heisst zuerst schaue ich, was ich machen will und dann suche ich das Tool, mit diesem ich es am einfachsten/besten umsetzen kann. Und nie, nie, nie umgekehrt! Falls man beim mittelständischen Betrieb dann feststellt, dass XML und/oder strukturierte Inhalte nicht benötigt werden und ein technischer Overkill sind, dann sollte man auch den Mut haben darauf zu verzichten…

Eine weitere Meinung zum Thema «DITA & Deutschland» gab es dazu auch noch von Markus Nickl auf dessen Blog.

.over-and-out

AppleTV 4 mit Plex

Als Besitzer eines wenig gebrauchten AppleTV 2 habe ich die Ankündigung, dass nun ein weiterer überteuerter Nachfolger auf den Markt kommt, so ganz nebenbei zur Kenntnis genommen. Irgendwie hatte ich schon etwas komplett neues, innovatives erwartet. Meine Hauptanwendung ist das Streamen von Filmen und Serien vom eigenen Server. Dies mache ich vorzugsweise mit Plex und da AppleTV 2 keine wirkliche Möglichkeit zum Streamen gibt (ausser mühsam über Airplay), hat auch noch Chromcast in meinem Haushalt Einzug gehalten. Das heisst, AppleTV 2 wurde bei mir nur noch für Keynotes oder noch seltener für AirPlay verwendet.

Was dann passierte, hat nun alles geändert: Ich bekam ein Newsletter von Plex, dass die neue AppleTV-App auch schon fertig und verfügbar sei. Dies war der Grund, wieso ich mir dann doch ein AppleTV 4 zugelegt habe. Es wurde ja schon ausführlich über das fehlende Siri in der Schweiz gesprochen und auch wie schlecht der aktuelle Appstore noch sei. Aber das wird sich sicher in den nächsten Wochen oder Monaten noch ändern. Für mich spielt zur Zeit nur etwas eine Rolle: Wie gut ist die Plex-App auf AppleTV?

Wie definiert man nun, ob eine App gut oder schlecht ist? Ein Möglichkeit ist es, dass man diese mit dem Vorgänger oder Anwendungen auf anderen Plattformen vergleicht. Plex lief bei mir schon auf einem Popcorn-Hour, dann auf einem Raspberry Pi und zuletzt auf Android- und iOS-Apps über Chromecast. Das grösste Problem bis heute war die Netzwerk-Performance, resp. die Leistung des Servers, um die Daten vor dem Streamen umzurechnen. Da gab es ganz unterschiedliche Erlebnisse, mit dem Ergebnis, dass ich heute nur noch die volle Qualität streame und somit den Server vom Transcodieren entlaste. Dies funktioniert auch ganz gut, bis zu dem Zeitpunkt, bei dem sich das Netzwerk „verschluckt“ resp. ein weiterer (langsamer) Client auch Mediadaten will und die Gesamtperformance des Netzwerkes reduziert… Das Problem ist aber inzwischen auch gelöst: Mit einem Triband-Router werden nur noch schnelle ac-Clients auf einer der schnellen Frequenzen gelassen (1300 Mbit/s) und somit kann hier die volle Auflösung bis 4K gestreamt werden.

Nun zur Erfahrung mit AppleTV 4: Die Bedienung ist gewöhnungsbedürftig. Gott-sei-Dank muss man sich nach der Installation der App nur einmal bei Plex anmelden. Danach kann man in der App mit Swipegesten navigieren. Die Darstellung der Inhalte in der App ist gefällig, wobei ich auch hier noch einige Verbesserungen in den nächsten Wochen erwarte. Für 6 Wochen Arbeit ist das Resultat jedoch schon ausgezeichnet. Wie sieht es denn nun mit der Performance aus? Die ist super. Sobald man einen Film oder eine Episode ausgewählt hat, fängt das Stück unvermindert auf dem TV an zu laufen. Vorbei sind die Zeiten mit Chromecast, als man noch 20 Sekunden aufs Buffering warten musste. In der kurzen Zeit hatte ich keinen einzigen Aussetzer und dies auch mit 1080p-Filmen mit 12GB Grösse. Und nun kommt das Beste: Als ich am Server etwas umstellen musste, habe ich diesen Offline geschaltet. Der Plex-Server war weg vom Netzwerk – offline. Trotzdem lief die Episode auf dem Fernseher ohne Unterbruch weiter. Es erschien nur eine Einblendung, dass der Medienserver offline sei. Trotzdem lief die Episode weiter. Was war passiert, resp. was ist der Grund dafür? Nun, da die Daten ja nicht über ein unsichtbare Kabel auf AppleTV 4 gelangten, muss es daran liegen, dass Daten auf dem Gerät zwischengespeichert werden. Und zwar nicht wenige, denn erst nach etwa fünf Minuten stoppte die Wiedergabe. Einfach genial.

Plex auf AppleTV 4 bedeutet für mich vor allem eines: Unterbrechungsfreies Full-HD-Streaming im bekannten Apple-Umfeld. Ist AppleTV 4 das Geld dafür wert? Nun, wenn man es so anschaut, dann ist es als Streamingkiste sehr teuer, aber ein ungetrübtes Sehrerlebnis ist mir dies wert. Und dass dies erst der anfang der Möglichkeiten dieser Box ist, kommt auch nach dazu. Mal schauen, was uns die nächsten paar Wochen bescheren. Und Zattoo arbeitet ja auch schon an einer App. Bald kann ich das Kabelfernsehen kündigen und monatlich die Kosten sparen. Noch hoffe ich, dass die Kinder nicht schnallen, dass man damit auch Gamen kann.

 

.over-ende-und-out

© 2024 hacker.li

Theme von Anders Norén↑ ↑