Leider kenne ich mich da auch nicht so gut aus, ein paar Anmerkungen kann ich aber vielleicht machen:
Fonts:
Die Fonts sollten eigentlich egal sein, da sie nur für die visuelle Repräsentation wichtig sind. Entscheidender ist, dass die Software mit dem zugrundeliegenden Zeichensatz klar kommt. Optimalerweise ist das heute Unicode (bevorzugt UTF-8 kodiert), welches auch Altkirchenslawisch (Kyrillisch wie auch Glagolitisch) abbilden kann. Falls es dennoch Probleme gibt, kann man ja auch versuchen, die Texte automatisiert zu transliterieren.
Syntax:
Wenn es sich nicht um Texte handelt, die bereits in irgendeiner Form annotiert worden sind, müsste man diese ja vmtl. mit entsprechenden Tools POS-taggen und parsen. Gerade was die Syntax angeht gibt es ja -- auch schon ohne Einbezug der Spezifika der Computerlinguistik -- sehr viele Theorien und Ansätze zur Syntaxanalyse, die nicht unbedingt untereinander vergleichbar sind. Hinzu kommt, dass -- nach meiner Wahrnehmung -- die spezifischen Syntaxtheorien, die verbreiteten Parsern zugrunde liegen, oft von dem abweichen, was man aus der "Nicht-Computerlinguistik" kennt. Wenn du also Texte syntaktisch vergleichen möchtest, bietet es sich vmtl. an auf Texte zurückzugreifen, die man demselben Parser verarbeitet worden sind.
Software:
Was fertige Software angeht, fällt mir gerade nur
AntPConc ein, eine Variante von AntConc für Parallel-Korpora. Janwos Einschätzung zu Excel teile ich. Tendenziell würde ich erwarten, dass man in diesem Bereich eher selbst ein bisschen basteln/programmieren muss (z. B. mit R, Python und/oder gängigen Unix-Tools zur Textprozessierung).