Вопрос
Я использую NLTK для извлечения существительных из текстовой строки, начиная со следующей команды:
tagged_text = nltk.pos_tag(nltk.Text(nltk.word_tokenize(some_string)))
Отлично работает на английском. Есть ли простой способ заставить его работать и на немецком?
(У меня нет опыта в программировании на естественном языке, но мне удалось использовать библиотеку python nltk, которая пока великолепна.)
Решение
Программное обеспечение на естественном языке делает свое волшебство, используя корпорации и статистику, которую они предоставляют. Вам нужно будет рассказать nltk о каком-то немецком корпусе, чтобы помочь ему правильно маркировать немецкий. Я считаю, что корпус EUROPARL может помочь вам в этом. Р>
См. nltk.corpus.europarl_raw и этот ответ , например, для настройки.
Кроме того, попробуйте пометить этот вопрос как " nlp ".
Другие советы
библиотека шаблонов включает функцию синтаксического анализа немецких предложений и Результат включает теги части речи. Следующее скопировано из их документации:
from pattern.de import parse, split
s = parse('Die Katze liegt auf der Matte.')
s = split(s)
print s.sentences[0]
>>> Sentence('Die/DT/B-NP/O Katze/NN/I-NP/O liegt/VB/B-VP/O'
'auf/IN/B-PP/B-PNP der/DT/B-NP/I-PNP Matte/NN/I-NP/I-PNP ././O/O')
Если вы предпочитаете набор тегов SSTS, вы можете установить необязательный параметр tagset = " STTS "
.
Пометка части речи (POS) очень специфична для определенного [естественного] языка. NLTK включает в себя множество различных тегеров, которые используют различные методы для вывода тега данного токена в данном токене. Большинство (но не все) из этих тегеров используют своего рода статистическую модель в качестве основного или единственного устройства, чтобы «выполнить трюк». Такие тегеры требуют некоторых «обучающих данных» на котором строится это статистическое представление языка, и данные обучения поступают в форме корпусов.
NTLK " распространение " сам по себе включает в себя многие из этих корпусов, а также набор «читателей корпусов» которые предоставляют API для чтения различных типов корпусов. Я не знаю, как обстоят дела в самой НТЛК, и включает ли это какой-либо немецкий корпус. Однако вы можете бесплатно найти несколько бесплатных корпусов, которые затем вам нужно будет преобразовать в формат, который удовлетворяет требованиям правильного считывателя корпусов NTLK, и затем вы можете использовать это для обучения POS-тегера для немецкого языка.
Вы даже можете создать свой собственный корпус, но это адская кропотливая работа; если вы работаете в университете, вы должны найти способы подкупа или иного принуждения студентов сделать это за вас ;-)
Возможно, вы можете использовать Stanford POS tagger. Ниже приведен рецепт, который я написал. Я скомпилировал рецепты Python для NLP на немецком языке, и вы можете получить к ним доступ по адресу http://htmlpreview.github.io/?https://github.com/alvations/DLTK/blob/master/docs/index.html р>
#-*- coding: utf8 -*-
import os, glob, codecs
def installStanfordTag():
if not os.path.exists('stanford-postagger-full-2013-06-20'):
os.system('wget http://nlp.stanford.edu/software/stanford-postagger-full-2013-06-20.zip')
os.system('unzip stanford-postagger-full-2013-06-20.zip')
return
def tag(infile):
cmd = "./stanford-postagger.sh "+models[m]+" "+infile
tagout = os.popen(cmd).readlines()
return [i.strip() for i in tagout]
def taglinebyline(sents):
tagged = []
for ss in sents:
os.popen("echo '''"+ss+"''' > stanfordtemp.txt")
tagged.append(tag('stanfordtemp.txt')[0])
return tagged
installStanfordTag()
stagdir = './stanford-postagger-full-2013-06-20/'
models = {'fast':'models/german-fast.tagger',
'dewac':'models/german-dewac.tagger',
'hgc':'models/german-hgc.tagger'}
os.chdir(stagdir)
print os.getcwd()
m = 'fast' # It's best to use the fast german tagger if your data is small.
sentences = ['Ich bin schwanger .','Ich bin wieder schwanger .','Ich verstehe nur Bahnhof .']
tagged_sents = taglinebyline(sentences) # Call the stanford tagger
for sent in tagged_sents:
print sent
Я написал пост в блоге о том, как конвертировать аннотированный корпус TIGER в Германии, чтобы использовать его с NLTK. Посмотрите здесь.