在spaCy中,可以使用nlp模型中的tokenizer对文本进行分词。以下是一个使用spaCy进行文本分词的示例代码:
import spacy# 加载spaCy的英文模型nlp = spacy.load("en_core_web_sm")# 要处理的文本text = "This is a sentence for tokenization."# 对文本进行分词doc = nlp(text)# 打印每个词的分词结果for token in doc: print(token.text)在这个示例中,首先加载了spaCy的英文模型,然后使用该模型对文本进行分词,最后打印出每个词的分词结果。


