TagUSA

SDL WorldServer: XML-Transformation über XSLT

WorldServer hat bereits eine automatische Aktion “Apply XSLT”. Diese sollte – wie ihr Name es verspricht – eine XSLT-Transformation an den Quelldateien durchführen. Leider klappt es aber nicht auf Anhieb, denn der Schritt ist nur als ‚Sample‘ konzipiert, das je nach Bedürfnis angepasst werden muss; in der Regel möchte SDL solche Anpassungen über den Professional Service anbieten.

Es geht aber trotzdem. Das Hauptproblem liegt darin, dass Ausgangsordner für sowohl Input- wie auch Output in der Action “Apply XSLT” nicht identisch sein dürfen. Deshalb muss zunächst die unkonvertierte Datei in den Zielordner kopiert werden und dann aus dem Zielordner in den Ausgangsordner mit XSLT zu transformieren. Das scheitert aber daran, dass es im Code der Automatic Action “Apply XSLT” eine Klausel gibt, die das Auslesen aus dem Zielordner und das Schreiben in den Ausgangsordner verhindert. Hier der entsprechende Code:

/*
* Sanity check the params: don’t let the user read from target
* and write to source.
*/
if (readFrom.equals(TARGET_VALUE) && writeTo.equals(SOURCE_VALUE)) {
return new WSActionResult(WSActionResult.ERROR,
„Invalid configuration: action can’t read from target “ +
„and write to source.“);
}

Die Entwicklung von SDL hat mir (Danke für den super Service!)  die Automatic Action “Apply XSLT” für die SDL WorldServer Version 10.4.4.139  so angepasst, dass das Auslesen aus dem Zielordner und das Schreiben in den Ausgangsordner erlaubt ist. Laut Aussage vom Support soll dies in zukünftigen Versionen von WorldServer dann bereits so “gefixt” sein. Für die aktuelle Installation habe ich dafür vom Support eine neue Automatic Action “Apply XSLT” bekommen (hier).

Die Lösung besteht nun darin vor der XSLT-Transformation zunächst die Ausgangsdatei aus dem Ausgangsordner mithilfe der Automatic Action “Copy source asset to target” zu kopieren.

08-03-_2016_12-59-23

 

Und anschliessend mit “Apply XSLT“ mit den Werten ‚Load XML from‘=Target und ‚Save result to‘=Source zu konvertieren.

Wie man die XSLT erstellen, erläutete ich hier nicht. Interessant ist aber zu wissen, welche Xalan-Version WorldServer https://xml.apache.org/xalan-j/ dafür verwendet und dies zumindest bei Version 11 auch noch so bleiben wird.

08-03-_2016_10-22-17

 

Als der Workflow soweit funktionierte, wollte ich auch noch die Validität der XML-Datei überprüfen, da diese “manuell” aus einer Textdatei zusammengebaut wird.

Um dies zu Prüfen wurde die Automatic Action “Validate XML” in den Workflow eingefügt und eine entsprechende DTD programmiert.

08-03-_2016_10-21-42

Leider reicht der Verweis zur DTD in der Action nicht aus, sondern es muss auch noch die DTD im XML eingefügt werden (leider). In unserem Fall sieht die XML-Datei wie folgt aus:

<?xml version=“1.0″ encoding=“UTF-8″?>
<!DOCTYPE mxml [
<!ELEMENT mxml (#PCDATA)>
]>
<mxml>

INHALT…

</mxml>

 

Resultat:

Ein Workflow, welche die Daten vom Quellverzeichnis in das Zielverzeichnis kopiert, die Gültigkeit der XML-Datei(en) überprüft und danach eine XSLT-Transformation durchführt. Nach der Übersetzung werden die Dateien auch nochmal durch eine XSLT-Transformation gelassen, mit dem Ergebniss, dass der Auftraggeber eine Textdatei zurückbekommt.

Hintergrund:

Dieser Aufwand wird betrieben, da wir in XML-Dateien mit dem Attribut maxlength=”xx” die maximale Länge des Strings im Übersetzungsprozess einfordern können. Dies ist hilfreich bei Software-Strings. In einer Textdatei (wie wir diese aus einem alten Entwicklugnstool bekommen)  kann diese Information aber nicht hinterlegt werden. Deshalb muss aus der Datei zuerst mit dem Einfügen eines XML-Headers und –Footers eine pseudo XML-Datei erzeugt werden, damit diese dann über eine XSLT-Transformation in die passende XML-Datei umgewandelt werden kann.

Wieso ein 2012er MacBook Pro mein idealer Laptop ist

Der Beitrag wurde inspiriert durch den Beitrag auf cultofmac.com „Why is Apple’s ancient 2012 MacBook Pro still so popular?“.

Nun ist es so, dass ich seit beinahe 6 Jahren das mittlerweile „veraltete“ 13-Zoll non-Retina MacBook Pro (MBP) verwende. Erst im Dezember 2015 habe ich nochmals ein neues Gerät der gleichen Bauart gekauft, das von Apple selbst als „Mitte 2012er-Modell“ bezeichnet wird.

Jetzt kann man sich fragen, wieso ich einen Laptop, der schon über 3 Jahre alt ist, überhaupt noch kaufe und dafür den Originalpreis bezahle, respektive wieso Apple so altes Zeugs überhaupt noch verkauft. Bin ich nun zum verblödeten Apple-Fanboy geworden, der für alles was einen angefressenen Apfel drauf hat, überteuerte Preise bezahlt?

 

Wieso Apple den 13-Zoll non-Retina MacBook Pro noch im Sortiment hat und wieso dieser immer noch massenhaft verkauft wird, ist ganz einfach: Das Gerät hat als letztes MacBook Pro noch ein integriertes DVD-Laufwerk und lässt sich einfach erweitern. Die Argumentation zu diesen Punkten findet man im Beitrag von cultofmac. Der schlechte Bildschirm kümmert in der 13-Zoll-Grösse (Kleine) die wenigsten Benutzer und deshalb sind die Kunden auch bereit 200 Franken/Euro mehr dafür als für das billigste MacBook Air zu bezahlen.

 

Wieso ich weiterhin dieses Gerät verwende? Nun zuerst muss ich sagen, dass ich den Vorgänger mit einem Core 2 Duo-Prozessor seit 2010 im Einsatz hatte. 6 Jahre lang ist der Laptop täglich mehrere Stunden im Einsatz gewesen und hat mich nie im Stich gelassen. Viele Leute kennen diesen Laptop von Präsentationen mit „Scrat“ (das Rattenhörnchen aus Ice Age) auf dem Deckel. Ich habe jetzt ein Update gemacht, da ich nochmals das letzte Modell dieses MacBook Pro haben wollte, bevor es definitiv und ohne Voranmeldung von Apple aus dem Sortiment geworfen wird. Sonst würde ich nach wie vor mit dem 6-Jährigen Gerät arbeiten und den Rechner erst ersetzen, wenn dieser nicht mehr funktioniert. Natürlich ist der MBP viel schwerer als alle seiner abgespeckten 13-Zoll-Nachfolger. Aber das ist für mich sekundär. Das wichtigste ist für mich weiterhin die Erweiterbarkeit und Anpassung an meine Bedürfnisse. So habe ich den Arbeitsspeicher auf 16GB erweitert, obwohl Apple max. 8GB angibt.

2016-01-07_21-20-17

 

Zudem habe ich mit einen SATA3-Adapter von hardwrk das DVD-Laufwerk ersetzt und mit einer 1TB SSD ergänzt. Das Ganze (die Original 1TB HDD und die 1TB SSD) habe ich zu einem 2TB Fusion Drive zusammengefügt. Fusion Drive ist eine von Apple entwickelte Technik, mit der eine SSD und eine mechanische Festplatte (HDD) zu einem logischen Laufwerk verbunden werden. Es handelt sich dabei um eine Weiterentwicklung von Hybridlaufwerken, doch im Unterschied zu diesen handelt es sich bei Fusion Drive um eine reine Softwarelösung. Damit bekommt man die Geschwindigkeit einer SSD mit dem billigen Speicher einer HDD. Das bedeutet für mich genug Speicher, um meine virtuellen Maschinen auf meinem MacBook Pro zu verwalten.

SSD und hardwrk-Adapter anstatt DVD-Aufwerk

SSD und hardwrk-Adapter anstatt DVD-Aufwerk

Den neuen MBP habe ich mit dem schnellsten verfügbaren Prozessor gekauft (2.9GHz Intel Core i7), der aber so leider nicht im lokalen Apple Store zu bekommen ist, sondern erst nach meiner Bestellung in China zusammengebaut und dann mir nach Hause gesendet wurde. Laut Performancetests soll der Prozessor meines „neuen“ 2012er MacBook Pro lediglich um 10% langsamer sein, als die aktuellen 2015er MacBooks mit den schnellsten Prozessoren. Damit kann ich sehr gut leben.

Nur, dass man mich nicht falsch versteht. Würde es diesen MacBook Pro in der „offenen“ Bauweise in einer Retina-Ausführung geben, dann hätte ich diesen gekauft. Nicht, weil ich diese Auflösung auf dem Laptop je gebraucht hätte, sondern um damit einen externen 4K-Bildschirm zu betreiben zu können. Aber „offen“ und erweiterbar/reparierbar ist für mich wichtiger als 4K, das ich vielleicht einmal brauchen könnte.

Und zum Schluss noch über das Argument, dass der 13-Zoll-Bildschirm für ein professionelles Arbeiten zu klein ist: Bei einem Windows-Laptop gebe ich recht. Das Umschalten/Ausblenden der Anwendungen benötigt immer eine „umständliche“ Bewegung des Zeigers und ein Klicken oder das Verwenden eines Kurzbefehls auf der Tastatur. Beim OS X platziere ich die Anwendungen auf mehreren Desktops und schalte mit einer Wischbewegung zischen den Desktops, resp. Anwendungen hin und her. Daraus resultiert ein unterbrechungsfreier Workflow, der mich mit einem MacBook Pro viel produktiver arbeiten lässt. Dies, die langlebige Hardware, die kostenlose Standard-Software und kostenlosen Betriebssystem-Updates lassen die höheren Beschaffungskosten für einen MacBook Pro mehr als rechtfertigen. Aber am Schluss ist dies meine subjektive Meinung.

 

.over-and-out

SDL: XML-Filter anlegen

Lange hat die Verwendung eines wirklichen XML-Filters wenig Sinn gemacht. Zu aufwändig war es und das gleiche Resultat hat man mit einem einfachen Textfilter auch hinbekommen.

Jetzt hat sich das Ganze aber geändert. Neu kann Studio auch die maximale Länge eines Strings überwachen. Das bedeutet, dass der Softwareentwickler in seiner Umgebung eingeben kann, wieviel Platz es im Dialog hat und diese Information dem XML mitgeben. Und diese Information wird in Studio nun ausgewertet und überwacht. Deshalb sind die Zeiten vorbei, wo die Erstübersetzung nochmals an den Übersetzer musste, weil diese unmöglich im Dialog oder Menüfenster Platz hatte.

Da ich die Erfahrung gemacht habe, dass SDL keinen Filter von grundauf kostenlos erstellt, sondern dies nur über den überteuerten Professional Service anbietet, biete ich hier die kostenlose Anleitung, wie vorzugehen ist.

Ich zeige die Einstellungen in SDL WorldServer. In SDL Studio ist dies gleich, teilweise sehen die Fenster einfach unterschiedlich aus. Ich habe es nur soweit dokumentiert, wie ich es selbst benötige, um einen weiteren Filter konfigurieren zu können.

Der Aufbau der XML-Datei

worddav8f6e66f8846cc58db3c49d6dae09becf(1) Der obligate Header
(2) Das Rootelement, das der Erkennung der XML-Datei dient und auch gleich den Sprachschlüssel der Quelldatei beinhaltet. Dieser Sprachschlüssel wird von Studio dann in die Zielsprache geändert.
(3) Medaten wie Ident=“ “ oder ContextHint=“ „, welche ausgeblendet werden
(4) maxlength limitiert die Zeichenzahl im Zieltextsegment
(5) Der eigentlich zu übersetzende Text

Filter in WorldServer

Der neue Filter ist vom Typ: Custom XML Studio File Type

worddav09672b060c3d782a3409d47f695969f3

Das Basiselement ist das Element, mit dem ein Parser das XML identifizieren kann. Leider ist diese Funktion bei WorldServer 10.4.2 noch nicht implementiert. In Studio funktioniert es und man kann mehrere MIME-Typen mit *.xml angelegen. Bei WorldServer geht dies nicht und bedeutet, dass pro XML-Typ ein anderes Dateiformat gewählt werden muss.

worddave2bd2b61f789c0e4a26fa5b4b3eb1906

Im Reiter «Parser» stehen alle Regeln, nach denen der zu übersetzende Text und Metadaten gefiltert werden.

worddav02ab8fe9375cae9431052e066c6e7bbf

Die ersten drei geben die Struktur an und die letzten vier Element die Metadaten

worddav7001fe912a2928ad4c8c3384ba1da523worddavfb6751476659f19a78ffd69c944fd30bworddav275b7a70115ebfd6af841290dcbec837

Im Element «Item» ist das Hauptelement mit den Inhalten drin.

worddav2e1c9d2e6f579767ad25d19c08fd987f

(1) Beim Anklicken von [Bearbeiten…] bei Struktur-Info wird der Dialog für die «Eigenschaften der Strukturinformation» angezeigt.

worddav45779a352226896b32534b27163d1330

Diese muss wie folgt angelegt werden.

worddav6e59888a09ed289c7d30e520893698a7

(2) Unter «Regel bearbeiten» [Erweitert…] anklicken. Dort muss noch das Element für die maximale Länge definiert werden. In diesem Fall ist es @maxlength.
Zusatzinfo: «maxlenght=“0″» läuft ohne Fehlermeldung durch den Parser, aber in Studio wird dann eine Längenbeschränkung von 0 angezeigt. Deshalb sollte in diesem Fall «maxlength» gar nicht angegeben werden.

worddavc0e45f45f378ab5453910d3c93fac1b3

Als letztes sind noch die Attribute zu kennzeichnen, welche nicht übersetzt werden. Leider können diese nicht als Attribut und „Nicht zu übersetzen“ angelegt werden. Es muss ein Umweg über die Erfassung als XPath erfolgen. Ich nehme an, dass dies ein Bug von SDL WorldServer ist, sonst kann ich mir einen solchen Blödsinn nicht erklären.

worddav3e835db6a92d3f0a1561705f0fda271eworddav34cbdf89efec39128c57c0f547cf7a2dworddav09cb946fd0ad884897144982ac1005e2worddav71d17cec155b022b6e2cb4fbe34f759a

Hier die Entitys, welche umgewandelt werden sollen. Dies betrifft aber nur den zu übersetzenden Text.

worddav9a9f9f6c82f5c6a256e2e38938c0d659

Beliebigen Präfix wählen und die URL von w3 eingeben.

worddav9f3dc4575087755828394bd42e116ee7worddavb4b2f4aa78f1559a0723c310d0fdf3d1worddav9df4e20d828e0d9268bd1edb4a01c5c1

Im «Embedded Content» können RegEx-Filter konfiguriert werden, um Platzhalter und sonstige Ausdrücke zu sperren.

worddavd3defc1bdc16eb17270066d47c8984fe

Man unterscheidet zwischen Tag-Paaren. Also alles was zwischen diesen Tag liegt, wird für die Übersetzung gesperrt.

worddav2bd90c1d6b9165a78ab7f2ba945dfb51

Und Platzhaltern, welche einen Teil/eine Stelle im Text definieren. In der Regel sind dies Variablen.

 

Zum Schluss noch etwas…

Auf ein weiteres Problem muss man auch noch achten. Es geht um die Verarbeitung mehrerer XML-Filter. SDL Studio kann anhand des Rootelementes selbst entscheiden, zu welchem Filter eine XML-Datei passt. SDL WorldServer kann dies nicht, obwohl diese Information im Filter definiert werden muss. Nun, wenn diese Information nicht ausgewertet wird, wieso muss man diese dann erfassen?

Das Resultat ist aber, dass SDL WorldServer in der aktuellen Version 10.4.4 nur eine einzige XML-Datei mit der Dateierweiterung .xml verarbeiten kann. Eine weitere XML-Datei muss eine andere Dateierweiterung haben oder zu einer anderen Filtergruppe gehören, mit dem Resultat, das der Benutzer dann den richtigen Filter auswählen müsste… Was mich verärgert, ist der Fakt, dass Studio das Problem nicht hat und mehrere XML-Dateien anhand des Rootelementes unterscheiden kann. Man beachte auch, dass ich Studio ab 99€ bekomme und WorldServer etwa das tausendfache kostet. Ein Lösung für WorldServer 11.0 wurde mir auch nicht zugesichert.

 

.over-and-out

 

 

 

 

 

Synology DS1513+ und ASUS USB-AC56

Da ich nur Dank dem kombinieren verschiedenster Forumseinträge ein Lösung fand, hier die Zusammenfassung dazu:

  • Synology DSM 5.2-5644 in Kombination mit dem DS1513+ unterstützt USB WLAN-Adapter mit bis zu 867 Mbps (5 GHz).
  • Der USB WLAN-Adapter ASUS USB-AC56 läuft im ac-Modus auf dem Synology-NAS mit ca. 800 Mbps.
  • Dafür muss dieser zwingend im USB3-Port angeschlossen werden. Im USB2-Port kann die Datenmenge nicht übertragen werden. (1. Fallstrick)
  • Die Verbindung über WLAN-Manager der DSM ist Fehlerhaft. Das bedeutet, dass auch bei einer richtigen Passworteingabe die Meldung kommt, dass diese falsch ist. Lösung: richtiges Passwort eingeben und nach der Fehlermeldung den Dialog schliessen. Einige Minuten später verbindet sich aber das NAS mit dem WLAN. Eventuell muss aber auch das System neu gestartet werden. (2. Fallstrick)
  • Eine manuelle Veränderung der IP-Adresse muss eventuell auch mehrmals eingegeben werden. (3. Fallstrick)

Niemals versuchen irgendwelche Linux-Treiber von ASUS zu installieren oder sonst noch Dateien des Betriebssystemes zu ändern. Dies ist nicht nötig und führte bei mindestens einem Forumsteilnehmer zu einer Neuinstallation des Systems…

USB-WLAN.png

Wenn man die Nerven behält und nicht gleich das NAS aus dem Fenster wirft, ist das Einrichten ziemlich einfach. Und wenn der USB WLAN-Adapter einmal eingerichtet ist, dann läuft er auch nach einen Systemneustart wieder weiter.

.over-and-out

DITA und der deutschsprachige Raum

Hier eine Antwort auf den Blogbeitrag von «Die Redakteuse» zum Thema «DITA & Deutschland».

dita_oasis_thumb.jpgIch bin schon seit bald 20 Jahren in der Technischen Dokumentation tätig. Persönlich habe ich bis heute noch nie DITA in einem Projekt verwendet und schon vor Jahren habe ich es als Hype der Amerikaner und Dienstleister/Toolanbieter abgestempelt. Hinzu kommt, dass viele Länder ausserhalb des deutschsprachigen Raumes im Bereich der Technischen Dokumentation unterentwickelt sind. Und wie sagt man so schön: «Bei den Blinden ist der Einäugige ein König!» Auch in den USA gibt es noch viele Firmen (ausserhalb der Mega-Konzerne), die genauso wenig ein Ahnung von strukturierter Technischer Dokumentation haben, wie es in Deutschland in der Regel ein Kleinbetrieb auf dem Land hat. Garagenfirmen sind nicht immer cool ;-).

Wieso vor allem in der DACH-Region (Deutschland, Österreich, Schweiz) sehr wenig Dokumentation mit DITA umgesetzt wurde, hat für mich zwei Gründe: Jürgen Muthig und Robert Schäflein-Armbruster. Als ich mich vor 15 Jahren mit Strukturierung von Daten auseinandersetzen musste, gab es nur wenig bekannte Strukturierungsstandards auf dem Markt. Das Beste zu dieser Zeit war Funktionsdesign. Im Gegensatz zu den USA haben die Unternehmen in der DACH-Region eben schon früh das Bedürfnis gehabt die Daten strukturiert zu erfassen, um diese auch standardisiert Weiterverarbeiten zu können. Deshalb hat Funktionsdesign oder eine Ableitung davon dann in den Nullerjahren in vielen Firmen auch Einzug gehalten. Und genau diese 10-15 Jahre sind auch der Zeitraum, die die USA im Bereich Technische Dokumentation hinter uns sind. Bitte nicht falsch verstehen: Es gibt in den USA einige brillante Experten, aber die klassische Industrie ausserhalb der grossen IT-Häuser hat einfach diesen Rückstand.

Müsste ich heute eine Dokumentation neu aufziehen, würde ich sicherlich DITA in Erwägung ziehen, so wie Funktionsdesign und PI-Mod. Und vielleicht würde ich auch ein Mittelding von allem einsetzen.

Egal welche Strukturierungsmethode man verwendet, es gilt unbedingt das Folgende zu beachten: Die Strukturierungsmethode ist am Schluss nur das Mittel zum Zweck. Das heisst zuerst schaue ich, was ich machen will und dann suche ich das Tool, mit diesem ich es am einfachsten/besten umsetzen kann. Und nie, nie, nie umgekehrt! Falls man beim mittelständischen Betrieb dann feststellt, dass XML und/oder strukturierte Inhalte nicht benötigt werden und ein technischer Overkill sind, dann sollte man auch den Mut haben darauf zu verzichten…

Eine weitere Meinung zum Thema «DITA & Deutschland» gab es dazu auch noch von Markus Nickl auf dessen Blog.

.over-and-out

Tom Clancy – Command Authority

Ich gebe es zu: ich bin ein Fan von Jack Ryan seitdem ich vor ca. 15 Jahren Rainbow Six von einem Arbeitskollegen bekommen hatte .

Inzwischen habe ich das Buch auch nochmals als ebook gelesen.

Deshalb habe ich auch Command Authority auf die Seite gelegt, um es zum richtigen Zeitpunkt lesen zu können und das war nun in den Ferien. Also habe ich mit Spannung und Vorfreude angefangen dieses Buch zu lesen .

Zum Faszinierenden am Buch: Schon 2013 handelt das Buch von einem Einmarsch der Russen in der Ukraine. Namen wie Donezk und auch die Besetzung der Krim werden beschrieben. So wie es leider ein Jahr später Realität wurde.
Wie immer wird in dieser Buchreihe detailliert auf die verwendeten Waffen eingegangen und Szenen beschrieben, die ich mir in der Realität so gut vorstellen könnte. Und natürlich retten die USA am Schluss wieder die unfähigen Europäer. Wäre ja erstaunlich, wenn es nicht so wäre. Das die Russen dabei wieder ihr Fett abbekommen und so wirklich alle Klischees erfüllen ist ja wohl klar. Aber wie zu Beginn schon erwähnt, bin ich ein Fan dieser Buchreihe und sehe darüber hinweg. Sogar wenn man bei dem fiktiven Personen eine ukrainische Oppositionsführerin mit hochgesteckten Zöpfen hat und der russische Präsident von KGB abstammt…

Wie gesagt, da bin ich nicht mehr ganz so neutral. Trotzdem habe ich die Geschichte, welche sonst einigermassen Solide daherkommt, an einem Punkt nicht abgekauft. Und zwar dort, wo sich das Team von Rainbow Six anhand eines Fotos entschliesst mal in die Ukraine zu fliegen und dort zu prüfen, wieso sich dort ein russischer Mafiosi herumtreibt. Einfach so, da sie nichts besseres zu Urin hatten, als den CIA in den Garten zu pinkeln. Leider, denn nach diesem Zeitpunkt – und das war noch ziemlich am Anfang des Buches – waren für mich auch die folgenden Kapitel auf Sand gebaut. Damit hat aus meiner Sicht der Autor die ganze Geschichte kaputt gemacht.
3
.over-ende-und-out

Joey Kelly – America for Sale

Das Buch hört sich vom Konzept her ja schon mal interessant an: Einmal quer durch die USA von West nach Ost, ohne Geld in der Tasche. Alles Geld zum Leben muss erarbeitet werden und geschlafen wird nur „auf der Strasse“.

Somit gehe ich mit einigen Erwartungen in das erste Kapitel hinein und werde umgehend enttäuscht. Joey nimmt dank seiner Bekanntheit am ersten Tag beinahe die komplette Reisekasse als „Almosen“ rein. Schön für Joey, aber ein Nobody hätte hier keine Chance gehabt. Die zweite Enttäuschung ist die eigentliche Reise. Nicht dass diese interessant wäre, jedoch wird zu 2/3 im Buch über Joey’s Extremwettkämpfe oder die Geschichte der Kelly Family erzählt. Eigentlich müsste das Buch wie folgt heissen: Zurück in die USA, um nochmals die Geschichte der Kelly Family zu erzählen…“. Nur dass bei diesem Titel niemand das Buch lesen möchte.

Nun aber das Interessante über das Buch. Obwohl ich kein Fan der Kelly Family war oder jemals werde, hat mir das Buch gefallen, da ich unbelastet etwas über deren Geschichte erfahren habe. Die unbelastete Art hat es geschafft eine gewisse Sympathie für diese langhaarigen schlechtgekleideten Iren zu spüren. Joey kenne ich nur von seinen Auftritten aus den verschiedenen TV-Total-Ablegern, wo er eher als etwas eingebildet erscheint. Wobei ich jetzt mehr das Gefühl habe, dass er einfach der knallharte Wettkämpfer ist, der den unbedingten Willen zum Siegen hat und deshalb ein wenig schief rüberkommt.

Eine weitere Kritik am Buch: Alles wird bis ins Detail erklärt, so dass es auch jeder noch so ungebildete Geschichtsignorant versteht. Vielleicht hat man sich dabei auch die Zielgruppe der TV-Total-Zuschauer als Messlatte genommen… Ist zwar nett für die Doofen, aber für mich war eine Erklärung zum Grund von Ground Zero oder 9/11 total überflüssig. Wie auch was die NRA ist und dass man in den USA alles mit dem Auto erledigt uvm.

Fazit: Leichte Lesekost, angenehm aber ohne literarische Höhepunkte geschrieben. Ideal als Lesestoff für den Urlaub oder auf lange Reisen. Und macht Lust Joey persönlich kennen zu lernen. Scheint mir doch ein netter Kerl zu sein, der trotz seiner Geschichte auf dem Boden geblieben ist.

2

© 2017 hacker.li

Theme by Anders NorenUp ↑