Il mio intuizione è che un hmm non è il modello giusto. Può essere usato per indovinare i tag POS, derivando la sequenza di tag con le più alte probabilità basate su probabilità precedenti e probabilità condizionali da un token all'altro.
Per una frase di nomi completa non vedo come si abbina questo modello.
Qualsiasi approccio basato sulla probabilità sarà molto difficile da allenarsi, perché le frasi dei nomi possono contenere molti token. Questo rende davvero molte combinazioni. Per ottenere utili probabilità di formazione, hai bisogno di set di allenamento davvero enormi.
Potresti iniziare rapidamente e facilmente sufficientemente buono emettendo una serie di regole grammaticali, ad esempio espressioni regolari, oltre tag POS seguendo la descrizione in
http://en.wikipedia.org/wiki/noun_phrase#components_of_noun_phrase
o qualsiasi altra descrizione linguistica delle frasi dei nomi.