文本预处理
文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:
- 读入文本
- 分词
- 建立字典,将每个词映射到一个唯一的索引(index)
- 将文本从词的序列转换为索引的序列,方便输入模型
读入文本
我们用一部英文小说,即H. G. Well的Time Machine,作为示例,展示文本预处理的具体过程。
1 | import collections |
# sentences 3221
分词
我们对每个句子进行分词,也就是将一个句子划分成若干个词(token),转换为一个词的序列。
1 | def tokenize(sentences, token='word'): |
[['the', 'time', 'machine', 'by', 'h', 'g', 'wells', ''], ['']]
1 | to = tokenize(lines, 'char') |
[['t',
'h',
'e',
' ',
't',
'i',
'm',
'e',
' ',
'm',
'a',
'c',
'h',
'i',
'n',
'e',
' ',
'b',
'y',
' ',
'h',
' ',
'g',
' ',
'w',
'e',
'l',
'l',
's',
' ']]
建立字典
为了方便模型处理,我们需要将字符串转换为数字。因此我们需要先构建一个字典(vocabulary),将每个词映射到一个唯一的索引编号。
1 | class Vocab(object): |
我们看一个例子,这里我们尝试用Time Machine作为语料构建字典
1 | vocab = Vocab(tokens) |
[('', 0), ('the', 1), ('time', 2), ('machine', 3), ('by', 4), ('h', 5), ('g', 6), ('wells', 7), ('i', 8), ('traveller', 9)]
验证其他函数
1 | vocab.token_freqs[0:10] |
[('the', 2261),
('time', 200),
('machine', 85),
('by', 103),
('h', 1),
('g', 1),
('wells', 9),
('', 1282),
('i', 1267),
('traveller', 61)]
将词转为索引
使用字典,我们可以将原文本中的句子从单词序列转换为索引序列
1 | for i in range(8, 10): |
words: ['the', 'time', 'traveller', 'for', 'so', 'it', 'will', 'be', 'convenient', 'to', 'speak', 'of', 'him', '']
indices: [1, 2, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 0]
words: ['was', 'expounding', 'a', 'recondite', 'matter', 'to', 'us', 'his', 'grey', 'eyes', 'shone', 'and']
indices: [20, 21, 22, 23, 24, 16, 25, 26, 27, 28, 29, 30]
用现有工具进行分词
我们前面介绍的分词方式非常简单,它至少有以下几个缺点:
- 标点符号通常可以提供语义信息,但是我们的方法直接将其丢弃了
- 类似“shouldn’t”, “doesn’t”这样的词会被错误地处理
- 类似”Mr.”, “Dr.”这样的词会被错误地处理
我们可以通过引入更复杂的规则来解决这些问题,但是事实上,有一些现有的工具可以很好地进行分词,我们在这里简单介绍其中的两个:spaCy和NLTK。
下面是一个简单的例子:
1 | text = "Mr. Chen doesn't agree with my suggestion." |
spaCy:
1 | import spacy |
['Mr.', 'Chen', 'does', "n't", 'agree', 'with', 'my', 'suggestion', '.']
NLTK:
1 | from nltk.tokenize import word_tokenize |
['Mr.', 'Chen', 'does', "n't", 'agree', 'with', 'my', 'suggestion', '.']