まずはPythonのscikit-learnライブラリを使用してK近傍回帰を実装してみましょう。以下にコード例を示します。
from sklearn.neighbors import KNeighborsRegressor
# サンプルデータの作成
X = [[0], [1], [2], [3]]
y = [0, 0, 1, 1]
# K近傍回帰モデルの作成と学習
knn = KNeighborsRegressor(n_neighbors=3)
knn.fit(X, y)
# 予測
X_test = [[1.5], [2.5]]
predictions = knn.predict(X_test)
print(predictions)
この例では、Xとyが与えられており、Xは特徴量(ここでは1つの次元のみ)、yは対応する目標値です。KNeighborsRegressorクラスを使用してK近傍回帰モデルを作成し、fitメソッドを使用してモデルを学習させます。その後、predictメソッドを使用して新しいデータに対する予測を行います。
上記のコードでは、X_testに対して予測を行っています。結果はpredictions
変数に格納され、出力されます。
K近傍回帰では、予測において最も近いk個のデータ点を考慮します。n_neighborsパラメータを調整することで、使用する近傍点の数を変更できます。また、他のパラメータやオプションも使用することができます。
K近傍回帰は、特にデータが非線形な関係を持つ場合や、外れ値の影響を受けやすい場合に有用です。ただし、大規模なデータセットに対しては計算量が増加するため、注意が必要です。
以上が、K近傍回帰のコード例と方法の紹介です。他にも様々な機械学習手法が存在しますので、必要に応じて試してみてください。ご質問があればお答えします!