Tokenization

/ˌtoʊkənaɪˈzeɪʃən/ トークナイゼーション

1. テキストをトークンと呼ばれる最小単位に分割する処理。

自然言語処理(NLP)やコンピュータサイエンスの分野で、連続したテキストデータを、個々の単語、記号、句などの意味を持つ最小単位(トークン)に区切るプロセスを指します。これにより、機械がテキストを分析し、理解しやすくなります。
The first step in natural language processing is tokenization. (自然言語処理の最初のステップはトークン化です。)

2. 機密データを一意の識別子(トークン)に置き換えるセキュリティ技術。

クレジットカード番号や口座情報などの機密性の高い実際のデータを、ランダムに生成された、意味を持たない一意の識別子(トークン)に変換するセキュリティ手法です。これにより、実際のデータがシステム外に流出するリスクを大幅に低減できます。
Credit card tokenization enhances payment security. (クレジットカードのトークン化は決済セキュリティを強化します。)