Das neueste Feedback hat ergeben, dass mein Ansatz mit "Constraint Grammar" verglichen werden kann. Bei constraint grammar werden mehrere Lesarten eines Wortes betrachtet, wobei der Kontext bestimmte Lesarten ausschließen soll.
Im Gegensatz dazu bildet mein Parser den Produktraum der Lesarten aller Wörter im Satz und bildet für jedes Element im Produktraum eine Interpretation. Hat ein Satz also drei Wörter mit jeweils 2,4,3 Lesarten, so startet mein Parser mit 24 Interpretationen, von denen 23 aussortiert werden müssen.
Mein Parser arbeitet also global beim disambiguieren der Lesarten, indem nicht nur der Kontext des Wortes betrachtet wird, sondern wie sich mit diesen Lesarten eine Gesamtinterpretation des ganzen Satzes konstruieren lässt.
Dass sich überhaupt eine Gesamtinterpretation bilden lässt, verdanke ich meinen neuem Sprachmodell, welches z.B. in folgendem Paper beschrieben ist:
https://iopscience.iop.org/article/10.10...012019/pdf
Das Sprachmodell passt auf jede Natürliche Sprache, mein Parser, der darauf aufbaut, ist nur für die deutsche Sprache.