| ページ一覧 | ブログ | twitter |  書式 | 書式(表) |

MyMemoWiki

自然言語処理

提供: MyMemoWiki
ナビゲーションに移動 検索に移動

目次

自然言語処理

Python | Python ライブラリ |

言語処理

Python形態素解析ライブラリ

NLTK(Natural Language Toolkit) のインストール

Python MeCab(日本語形態素解析) のインストール

  • Python MeCab(日本語形態素解析)

Beautiful Soup (HTML解析) のインストール

グラフ

NumPy (数学関数) のインストール

matplotlib (グラフ機能) のインストール

  • matplotlib (グラフ機能)

テキストコーパスと語彙資源へのアクセス

コーパス

  • テキストコーパスとは巨大なテキストのこと
  • 1つ以上のジャンルから集められた素材をバランスよく含むようにデザインされる
  • Python NLTK(Natural Language Toolkit) をインストールして、以下を試す。

テキストを検索する

  • text1: Moby Dick by Herman Melville 1851 (白鯨) から、"monstrous"という単語を調べる
>>> text1.concordance('monstrous')
Building index...
Displaying 11 of 11 matches:
ong the former , one was of a most monstrous size . ... This came towards us , 
ON OF THE PSALMS . " Touching that monstrous bulk of the whale or ork we have r
ll over with a heathenish array of monstrous clubs and spears . Some were thick
d as you gazed , and wondered what monstrous cannibal and savage could ever hav
that has survived the flood ; most monstrous and most mountainous ! That Himmal
they might scout at Moby Dick as a monstrous fable , or still worse and more de
th of Radney .'" CHAPTER 55 Of the Monstrous Pictures of Whales . I shall ere l
ing Scenes . In connexion with the monstrous pictures of whales , I am strongly
ere to enter upon those still more monstrous stories of them which are to be fo
ght have been rummaged out of this monstrous cabinet there is no telling . But 
of Whale - Bones ; for Whales of a monstrous size are oftentimes cast up dead u

簡単な統計処理

分散プロットを用いて表示

  • ある単語がテキストの最初から最後までの間にどの位置に何回出現するのかを調べる
  • 以下のライブラリが必要
>>> text4.dispersion_plot(["citizens", "democracy", "freedom", "duties", "America"])

0058 nltk dispersion plot01.png

グラフウィンドウの設定

<blockquote>CentOS にて上記手順でグラフウィンドウを表示できなかったので、ブラウザにグラフを表示する設定、matplotlib.use("WebAgg") を行っている。</blockquote>

  • Python matplotlib
  • モジュールロード時に一度だけ行えばよい
  • Windows環境では、デフォルトの TkAgg でグラフ表示された
import matplotlib
matplotlib.use("WebAgg")

頻度分布

  • 頻度分布は言語処理では頻繁に必要になる。
  • NLTKではそれを標準でサポートしている。

FreqDist を使って「白鯨(Moby Dick)」から 頻出50単語を取り出す例

>>> fdist = FreqDist(text1)
>>> fdist
<FreqDist with 19317 samples and 260819 outcomes>
>>> vocabulary = fdist.keys()
>>> vocabulary[:50]
[',', 'the', '.', 'of', 'and', 'a', 'to', ';', 'in', 'that', "'", '-', 'his', 'it', 'I', 's', 'is', 'he', 'with', 'was', 'as', '"', 'all', 'for', 'this', '!', 'at', 'by', 'but', 'not', '--', 'him', 'from', 'be', 'on', 'so', 'whale', 'one', 'you', 'had', 'have', 'there', 'But', 'or', 'were', 'now', 'which', '?', 'me', 'like']

試しにNLTKのホームページ語彙の出現頻度を数えてみる

import nltk
from nltk.probability import FreqDist
import urllib2
from BeautifulSoup import BeautifulSoup
import re

soup = BeautifulSoup(urllib2.urlopen("http://nltk.org/"))
l = []
for t in soup.findAll(text=True):    
    l.extend(re.split('[ \n\t]',str(t)))
freq = FreqDist(l)
print freq
print freq.keys()[:50]
結果
<FreqDist: : 547, 'NLTK': 23, '>>>': 11, 'and': 10, 'with': 8, '.': 7, 'a': 7, 'for': 7, '=': 6, 'Python': 5, ...>
[', '\xc2\xb6', JJ'),', ')', 'tagged', 'tokens', CD'),', NNP'),', RB'),', '('Thursday',', '('eight',', '('morning',', '('on',', '("o'clock",', '0', '3', '3.0', 'API', 'Contents', 'Data', 'Development', 'HOWTO', 'Index', 'NLTK,', 'News', 'Processing', 'Search' , 'NLTK', '>>>', 'and', 'with', '.', 'a', 'for', '=', 'Python', 'is', 'the', 'to', IN'),', '–', '(', 'Installing', 'Language', 'Natural', 'list', 'mailing', 'nltk', 'of', ']

<blockquote>上記ではBeautifulSoupを利用したが、nltk.clean_html() で、HTML文書からタグを取り除くことができる</blockquote>

html = urllib2.urlopen("http://nltk.org/").read()
untagged = nltk.clean_html(html)
tokens = nltk.word_tokenize(untagged)

NLTKのホームページ語彙の頻出50語累積頻度をプロットしてみる

import nltk
from nltk.probability import FreqDist
import urllib2
from BeautifulSoup import BeautifulSoup
import re
import matplotlib
matplotlib.use("WebAgg")

soup = BeautifulSoup(urllib2.urlopen("http://nltk.org/"))
l = []
for t in soup.findAll(text=True):    
    l.extend(re.split('[ \n\t]',unicode(t)))
freq = FreqDist(l)
print freq
print freq.keys()[:50]
freq.plot(50, cumulative=True)

0059 nltk plot01.png

NLTKに定義されている頻度分布に関する関数

説明
fdist = FreqDist(samples) samplesで指定されたデータの頻度分布を生成
fdist.inc(sample) sampleで指定されたデータ数を1増やす
fdist['monstrous'] 指定されたデータの出現数
fdist.freq('monstrous') 指定されたデータの頻度
fdist.N() サンプルの総数
fdist.keys() 頻度の多い順ソートされたサンプル
for sample in fdist サンプルを頻度の多い順に処理
fdist.max() 数のもっとも多いサンプル
fdist.tabulate() 頻度分布を表形式で表示
fdist.plot() 頻度分布のプロットを生成する
fdist.plot(cumulative=True) 累積頻度プロットを生成
fdist1 < fdist2 fdist1のサンプルの頻度がfdist2よりも少ないかをテスト

よりきめ細かい単語選択

  • 特性Pをもつ単語を探し出す場合、「V(語彙)に属し、特性Pを持つすべてのWの集合」と言うことができる。[参考]
{ w | w ∈ V & P(w) }

Python の内包表記で表現すると

[ w for w in V if p(w) ]

となる

'a' から始まる単語を抽出してみる

import nltk
import urllib2
from BeautifulSoup import BeautifulSoup
import re

soup = BeautifulSoup(urllib2.urlopen("http://nltk.org/"))
l = []
for t in soup.findAll(text=True):    
    l.extend(re.split('[ \n\t]',unicode(t)))
v = set(l)
start_with_a = [w for w in v if w.startswith('a')]
print sorted(start_with_a)
結果
[u'a', u'about', u'alike.', u'all,', u'along', u'alongside', u'amazing', u'analyzing', u'and', u'announcements', u'as', u'available']

5文字以上かつ3回以上出現する単語を抽出してみる

import nltk
from nltk.probability import FreqDist
import urllib2
from BeautifulSoup import BeautifulSoup
import re

soup = BeautifulSoup(urllib2.urlopen("http://nltk.org/"))
l = []
for t in soup.findAll(text=True):    
    l.extend(re.split('[ \n\t]',unicode(t)))
freq = FreqDist(l)
print sorted([w for w in set(l) if len(w) >= 5 and freq[w] >= 3])
結果
[uIN'),', uJJ'),', u'–', u'>>>', u'Installing', u'Language', u'Natural', u'Python', u'mailing', u'tagged', u'tokens']

コロケーションとバイグラム

  • コロケーションとは非常に頻繁に共起する一連の単語列
    • 「red wine」(赤ワイン)はコロケーションだが、「the wine」(そのワイン)は異なる
  • コロケーションの特徴は類似した意味を持つ単語で置き換えしづらい
    • 例えば、赤ワインの赤を茶色に変えることは非常に違和感がある
  • 単語のペアは、バイアグラムとよばれ、bigrams()関数で簡単に抜き出すことができる。
>>> from nltk import *
>>> bigrams(['this','is','a','pen'])
[('this', 'is'), ('is', 'a'), ('a', 'pen')]
  • ここでタプルで表されるペアがバイグラムであり、本質的には頻出するバイグラムがコロケーション。

コロケーションの作成

import nltk
from nltk.collocations import *
import urllib2
from BeautifulSoup import BeautifulSoup
import re
from xml.sax.saxutils import unescape

soup = BeautifulSoup(urllib2.urlopen("http://www.python.org/about/"))
l = []
for t in soup.body.findAll(text=True):    
    l.extend(re.split('[ \t\n]', unicode(t)))
l = [unescape(x,{"'":"'"}) for x in l]
txt = " ".join(l)

tokens = nltk.wordpunct_tokenize(txt)
bigram_measures = nltk.collocations.BigramAssocMeasures()
trigram_measures = nltk.collocations.TrigramAssocMeasures()
finder = BigramCollocationFinder.from_words(tokens)
print finder.nbest(bigram_measures.pmi, 10) # NORMALIZE WHITESPACE
結果
[(u'Applications', u'Success'), (u'CORBA', u'objects'), (u'CPython', u'uses'), (u'Communications', u'Engine'), (u'Core', u'Development'), (u'Documentation', u'Download'), (u'Download', u'\u4e0b\u8f7d'), (u'English', u'Resources'), (u'Getting', u'Started'), (u'Insider', u'Blog')]

WordNet

  • 意味により整列された英語辞書

同義語

'motorcar'の同義語を調べる例

  • 'car.n.01'というエントリは、synset(同義語集合)で「car」の最初の名詞の語義を表す
  • synset.definition で定義文を参照
  • synset.examples で例文を参照
  • synset.lemmas で同義語集合を取得
from nltk.corpus import wordnet as wn

def print_syn_attr(w):
    for synset in wn.synsets(w):
        print '\n*** %s ***' % (synset)
        print '1.definition:\n\t%s' % (synset.definition)
        print '2.examples:\n\t%s' % (synset.examples)
        print '3.lemma_names'
        for lemma in synset.lemma_names:
            print '\t%s' % (lemma)

if __name__ == '__main__':
    print_syn_attr('motorcar')
結果
*** Synset('car.n.01') ***
1.definition: 
  a motor vehicle with four wheels; usually propelled by an internal combustion engine
2.examples:
  ['he needs a car to get to work']
3.lemma_names
  car
  auto
  automobile
  machine
  motorcar

階層構造

  • WordNetの同義語集合は抽象概念に対応しており、階層構造となっている。
  • 下位語を調べるには、synset.hyponyms() を利用する。
  • 上位語を調べるには、synset.hypernyms() を利用する
  • 下位語に至る経路が複数ある場合、synset.hypernym_paths()
  • もっとも一般的な譲位後は、synset.root_hypernyms() で得られる。

'motorcar'の階層構造を調べる

# -*- coding:"utf-8" -*-
from nltk.corpus import wordnet as wn
 
def print_syn_hierarchy(w):
    for synset in wn.synsets(w):
        print '\n*** %s ***' % (synset)
        print '1.definition:\n\t%s' % (synset.definition)
        print '2.examples:\n\t%s' % (synset.examples)
        print '3.hypernym:'
        for hypernym in synset.hypernyms():
            print '\t%s' % (hypernym)
        path_idx = 1
        print '4.hypernym paths:'
        for hypernym_path in synset.hypernym_paths():
            print '\t4.%d:%s' % (path_idx, hypernym_path)
            path_idx += 1
        print '5.hypernym root:'
        path_idx = 1
        for hypernym_root in synset.root_hypernyms():
            print '\t5.%d:%s' % (path_idx, hypernym_root)
            path_idx += 1
                              
if __name__ == '__main__':
    print_syn_hierarchy('motorcar')
結果
*** Synset('car.n.01') ***
1.definition:
  a motor vehicle with four wheels; usually propelled by an internal combustion engine
2.examples:
  ['he needs a car to get to work']
3.hypernym:
  Synset('motor_vehicle.n.01')
4.hypernym paths:
  4.1:[Synset('entity.n.01'), Synset('physical_entity.n.01'), Synset('object.n.01'), Synset('whole.n.02'), Synset('artifact.n.01'), Synset('instrumentality.n.03'), Synset('container.n.01'), Synset('wheeled_vehicle.n.01'), Synset('self-propelled_vehicle.n.01'), Synset('motor_vehicle.n.01'), Synset('car.n.01')]
  4.2:[Synset('entity.n.01'), Synset('physical_entity.n.01'), Synset('object.n.01'), Synset('whole.n.02'), Synset('artifact.n.01'), Synset('instrumentality.n.03'), Synset('conveyance.n.03'), Synset('vehicle.n.01'), Synset('wheeled_vehicle.n.01'), Synset('self-propelled_vehicle.n.01'), Synset('motor_vehicle.n.01'), Synset('car.n.01')]
5.hypernym root:
  5.1:Synset('entity.n.01')

語彙の関係

  • 構成要素への関係(メロニム)
  • 構成要素とそれを含む要素の関係(ホロニム)

'tree'の例

from nltk.corpus import wordnet as wn

def print_syn_relation(w):
    for synset in wn.synsets(w):
        print '\n*** %s ***' % (synset)
        print '1.definition:\n\t%s' % (synset.definition)
        print '2.examples:\n\t%s' % (synset.examples)
        print '3.part meronyms:'
        for part_meronym in synset.part_meronyms():
            print '\t%s' % (part_meronym)
        print '4.substance meronyms:'
        for substance_meronym in synset.substance_meronyms():
            print '\t%s' % (substance_meronym)
        print '5.member holonyms:'
       for member_holonym in synset.member_holonyms():
            print '\t%s' % (member_holonym)
                              
if __name__ == '__main__':
    print_syn_relation('tree')
結果
  • part meronyms:幹(trunk)や枝(limb)は、木(tree)の一部
  • substance meronyms:材質的には、心材(heartwood)と辺材(sapwood)で構成
  • member holonyms:木(tree)は集まると森(forest)を形成する
*** Synset('tree.n.01') ***
1.definition:
  a tall perennial woody plant having a main trunk and branches forming a distinct elevated crown; includes both gymnosperms and angiosperms
2.examples:
  []
3.part meronyms:
  Synset('burl.n.02')
  Synset('crown.n.07')
  Synset('stump.n.01')
  Synset('trunk.n.01')
  Synset('limb.n.02')
4.substance meronyms:
  Synset('heartwood.n.01')
  Synset('sapwood.n.01')
5.member holonyms:
  Synset('forest.n.01')
    :(略)  

テキストの正規化

ステマー

  • 単語からすべての接辞を取り除く処理をステミングと呼ぶ。
  • NLTKには、すぐ利用可能なステマーがいくつか用意されている
  • ステミング処理は形式的に定義されているわけではなく、一般的には利用しようと思っているアプリケーションにもっとも適切なステマーを選ぶ。
  • 単語が異なる語形であっても検索できるようテキストのインデックスを作成したいなら、Porterステマーはよい選択。

見出し語化

  • 語形を辞書に記述されている形に変換する作業を"見出し語化"と呼ぶ
  • WordNetのレマタイザ(見出し語化ツール)は、結果が辞書に存在する場合にのみ、接辞を削除するようになっている。
  • テキストの語彙を収集する、または有効な見出し語のリストが必要な場合は、WordNetのレマタイザを使うのはよい選択だろう。

Porterステマー、LancasterステマーとWordNetレマタイザの使用例

import nltk
import urllib2

html = urllib2.urlopen("http://nltk.org").read()
untagged = nltk.clean_html(html)
tokens = nltk.word_tokenize(untagged)
tokens.sort()
tokens = set(tokens)

porter = nltk.PorterStemmer()
lancaster = nltk.LancasterStemmer()
lemmatizer = nltk.WordNetLemmatizer()

print "****************** porter *********************"
print [t + "->" + porter.stem(t) for t in tokens if t != porter.stem(t)]
print "****************** lancaster *********************"
print [t + "->" + lancaster.stem(t) for t in tokens if t != lancaster.stem(t)]
print "****************** lemmatizer *********************"
print [t + "->" + lemmatizer.lemmatize(t) for t in tokens if t != lemmatizer.lemmatize(t)]
結果例
****************** porter *********************
['semantic->semant', 'programming->program', 'sentence->sentenc', 'resources->resourc', 'tagged->tag', 'using->use', 'linguistics->linguist', 'terms->term', 'classification->classif', 'simple->simpl', 'writing->write', 'only->onli', 'has->ha'...(略)]
****************** lancaster *********************
['all->al', 'semantic->sem', 'programming->program', 'sentence->sent', 'over->ov', 'resources->resourc', 'tagged->tag', 'JJ->jj', 'using->us', 'Bird->bird', 'linguistics->lingu', 'terms->term', 'classification->class', 'Klein->klein'...(略)]
****************** lemmatizer *********************
['resources->resource', 'terms->term', 'has->ha', 'modules->module', 'updates->update', 'linguists->linguist', 'educators->educator', 'users->user', 'entities->entity', 'guides->guide', 'libraries->library', 'students->student', 'interfaces->interface'...(略)]