-
テキストの前処理: テキストデータを処理する前に、いくつかの前処理ステップを実行することが一般的です。これには、テキストのクリーニング、トークン化、ストップワードの除去、ステミングなどが含まれます。以下は、NLTKライブラリを使用したトークン化とストップワードの除去の例です。
import nltk from nltk.corpus import stopwords from nltk.tokenize import word_tokenize nltk.download('stopwords') nltk.download('punkt') def preprocess_text(text): # テキストのトークン化 tokens = word_tokenize(text.lower()) # ストップワードの除去 stop_words = set(stopwords.words('english')) filtered_tokens = [token for token in tokens if token not in stop_words] return filtered_tokens # テキストの前処理の例 text = "This is an example sentence." preprocessed_text = preprocess_text(text) print(preprocessed_text)
-
テキストのベクトル化: 機械学習アルゴリズムにテキストデータを入力するには、テキストを数値ベクトルに変換する必要があります。一般的な手法には、BoW (Bag-of-Words)、TF-IDF (Term Frequency-Inverse Document Frequency)、Word2Vecなどがあります。以下は、Scikit-learnライブラリでTF-IDFベクトル化を行う例です。
from sklearn.feature_extraction.text import TfidfVectorizer def vectorize_text(texts): vectorizer = TfidfVectorizer() vectorized_text = vectorizer.fit_transform(texts) return vectorized_text # テキストのベクトル化の例 texts = ["This is the first document.", "This document is the second document."] vectorized_texts = vectorize_text(texts) print(vectorized_texts.toarray())
-
テキストの特徴抽出: テキストデータから追加の特徴を抽出することもできます。例えば、テキストの長さ、単語の出現頻度、品詞の分布などが考えられます。以下は、NLTKライブラリを使用してテキストの長さを抽出する例です。
from nltk.tokenize import word_tokenize def extract_text_features(text): # テキストのトークン化 tokens = word_tokenize(text) # テキストの長さを抽出 text_length = len(tokens) return text_length # テキストの特徴抽出の例 text = "This is an example sentence." text_length = extract_text_features(text) print(text_length)
これらは、テキスト特徴エンジニアリングの一部の基本的な方法とコード例です。実際のタスクに応じて、さまざまなテクニックやライブラリを組み合わせて使用することができます。