tokenizer

[美]/ˈtəʊkənaɪzə/
[英]/ˈtoʊkənaɪzər/

释义

n.将文本分割成词元(如单词或短语)的程序或工具

短语搭配

tokenizer input

分词输入

using a tokenizer

使用分词器

tokenizer output

分词输出

tokenizer library

分词库

tokenizer function

分词函数

tokenizer class

分词类

tokenizer method

分词方法

custom tokenizer

自定义分词器

例句

we used a fast tokenizer for efficient text processing.

我们使用了一个快速的tokenizer来进行高效的文本处理。

the tokenizer splits the text into individual tokens.

tokenizer将文本分割成单独的token。

a subword tokenizer handles rare words effectively.

子词tokenizer能够有效地处理罕见词。

the character tokenizer is simple but less effective.

字符tokenizer很简单,但效率较低。

we need a robust tokenizer for our nlp pipeline.

我们需要一个强大的tokenizer来构建我们的NLP流水线。

the sentence tokenizer separates sentences accurately.

句子tokenizer能够准确地分隔句子。

the word tokenizer is a common starting point.

词tokenizer是一个常见的起点。

we compared different tokenizers for optimal performance.

我们比较了不同的tokenizer以获得最佳性能。

the tokenizer’s output is used for feature extraction.

tokenizer的输出用于特征提取。

regular expressions can be used to define a custom tokenizer.

正则表达式可以用来定义一个自定义的tokenizer。

下载 App 解锁完整内容

想更高效学习单词?下载DictoGo App,享受更多词汇记忆与复习功能!

立即下载 DictoGo