機械学習アルゴリズム徹底解説:技術面接を突破するための完全ガイド
技術面接に必要な機械学習アルゴリズムを網羅的に解説。線形モデル、決定木、アンサンブル手法、クラスタリング、評価指標、正則化をscikit-learnのコード例とともに紹介します。

2026年の技術面接において、機械学習アルゴリズムの理解は避けて通れない必須要件となっています。ジュニアレベルのデータサイエンティストからシニアMLエンジニアまで、面接官は候補者に対して主要なアルゴリズム群を説明し、実装し、比較する能力を求めます。線形モデルからアンサンブル手法、教師なし学習に至るまで、各アルゴリズムの特性を深く理解していることが合否を分ける決定的な要因です。本記事では、scikit-learn 1.8を用いたPython実装、評価戦略、そして面接で差がつくトレードオフについて体系的に解説します。
機械学習アルゴリズムは、教師あり学習(回帰・分類)、教師なし学習(クラスタリング・次元削減)、強化学習の3つに大別されます。2026年の技術面接では前2者が重点的に問われ、特にアルゴリズムの選択基準と評価手法に関する深い理解が求められます。
教師あり学習:回帰と分類の基礎
教師あり学習は、ラベル付きデータから学習するアルゴリズム群です。各訓練データには入力と期待される出力が含まれており、モデルはこの対応関係を学びます。回帰は連続値(住宅価格、気温など)を予測し、分類は離散的なラベル(スパム/非スパム、疾病診断など)を割り当てます。データサイエンス面接において、この両方を確実に理解しておくことは必須です。
線形回帰は、回帰タスクの出発点として最も基本的なアルゴリズムです。特徴量とターゲット変数の関係を重み付き和としてモデル化します。面接では、実装能力に加えてコスト関数の説明や、線形回帰が適切でないケースについても問われることが多いです。
# linear_regression_demo.py
import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error, r2_score
# Generate synthetic housing data: square footage -> price
np.random.seed(42)
sqft = np.random.uniform(500, 3000, size=200).reshape(-1, 1)
price = 150 * sqft.flatten() + np.random.normal(0, 20000, size=200)
X_train, X_test, y_train, y_test = train_test_split(sqft, price, test_size=0.2)
model = LinearRegression()
model.fit(X_train, y_train) # Fit on training data
predictions = model.predict(X_test) # Predict on unseen data
print(f"Coefficient: {model.coef_[0]:.2f}") # Weight per sqft
print(f"R2 Score: {r2_score(y_test, predictions):.4f}")
print(f"RMSE: {np.sqrt(mean_squared_error(y_test, predictions)):.2f}")上記の回帰係数は、面積が1平方フィート増加するごとに価格がどれだけ変動するかを示しています。R2スコアは予測精度の割合を、RMSEは予測誤差の大きさを示す指標です。面接では、これらの指標の意味を即座に解釈できることが期待されます。
分類タスクには、ロジスティック回帰が広く使われます。名前に「回帰」と付いていますが、シグモイド関数を適用して確率を出力する分類アルゴリズムです。決定境界の仕組み、正則化パラメータCの役割、二値分類と多クラス分類の違いは、いずれも頻出の面接トピックです。
# logistic_classification.py
from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report
data = load_breast_cancer() # Binary classification dataset
X_train, X_test, y_train, y_test = train_test_split(
data.data, data.target, test_size=0.2, random_state=42
)
clf = LogisticRegression(max_iter=5000, C=1.0) # C controls regularization strength
clf.fit(X_train, y_train)
y_pred = clf.predict(X_test)
print(classification_report(y_test, y_pred, target_names=data.target_names))classification_reportは、各クラスの適合率(Precision)、再現率(Recall)、F1スコアを一覧で表示します。面接官はこのレポートを提示して、各数値の意味を説明させることがあります。スムーズに読み解けるかどうかが、準備の深さを如実に表します。
決定木とアンサンブル手法
決定木は、特徴量の閾値に基づいてデータを再帰的に分割するアルゴリズムです。単体では過学習しやすいという弱点がありますが、アンサンブル手法であるランダムフォレストと勾配ブースティングは、複数の木を組み合わせることでこの問題を解決します。解釈しやすさと予測性能のバランスが良いため、技術面接では非常に高い頻度で出題されます。
ランダムフォレストは、ブートストラップサンプルに基づいて多数の独立した決定木を構築し、それらの予測を平均化します。この手法はバギング(Bagging)と呼ばれ、分散を低減しつつバイアスを増加させません。決定木・アンサンブル手法に関する面接質問では、バギングとブースティングの違い、特徴量重要度の算出方法、OOB(Out-of-Bag)エラーの仕組みが頻繁に問われます。
# ensemble_comparison.py
from sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifier
from sklearn.datasets import load_wine
from sklearn.model_selection import cross_val_score
data = load_wine() # 3-class classification
X, y = data.data, data.target
# Random Forest: parallel trees, reduces variance
rf = RandomForestClassifier(n_estimators=100, max_depth=5, random_state=42)
rf_scores = cross_val_score(rf, X, y, cv=5, scoring='accuracy')
# Gradient Boosting: sequential trees, reduces bias
gb = GradientBoostingClassifier(n_estimators=100, learning_rate=0.1, max_depth=3)
gb_scores = cross_val_score(gb, X, y, cv=5, scoring='accuracy')
print(f"Random Forest: {rf_scores.mean():.4f} +/- {rf_scores.std():.4f}")
print(f"Gradient Boosting: {gb_scores.mean():.4f} +/- {gb_scores.std():.4f}")ランダムフォレストは、安定性が求められる場面やハイパーパラメータの調整コストを抑えたい場面に適しています。一方、勾配ブースティングはより高い精度を実現できる可能性がありますが、学習率、推定器の数、木の深さなど複数のパラメータが相互に影響するため、慎重なチューニングが必要です。面接では、単にどちらの精度が高いかではなく、このトレードオフを理解しているかどうかが問われます。
| 比較項目 | ランダムフォレスト | 勾配ブースティング | |-----------|--------------|-------------------| | 学習速度 | 高速(並列処理可) | 低速(逐次処理) | | 過学習リスク | 低い | チューニングなしでは高い | | ハイパーパラメータ感度 | 低い | 高い | | 特徴量重要度 | 不純度ベース | ゲインベース | | 最適な用途 | ベースラインモデル、ノイズの多いデータ | コンペティション、テーブルデータ |
教師なし学習:クラスタリングと次元削減
教師なし学習は、ラベルのないデータから構造やパターンを発見するアルゴリズム群です。K-Meansクラスタリングと主成分分析(PCA)は、面接で最も頻繁に問われる2つの手法です。教師なし学習の面接質問に対応するためには、両方の深い理解が不可欠です。
K-Meansは、クラスタ内の分散を最小化することでデータをk個のクラスタに分割します。各データポイントを最も近い重心に割り当て、重心を更新するという処理を繰り返します。面接での重要なポイントは、kの選び方(エルボー法、シルエットスコア)と、非球状のクラスタに対する限界の2点です。
# kmeans_clustering.py
from sklearn.cluster import KMeans
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import silhouette_score
from sklearn.datasets import load_iris
data = load_iris()
X = StandardScaler().fit_transform(data.data) # Scale features first
# Test multiple values of k to find optimal cluster count
for k in [2, 3, 4, 5]:
kmeans = KMeans(n_clusters=k, n_init=10, random_state=42)
labels = kmeans.fit_predict(X)
sil = silhouette_score(X, labels) # Higher = better-defined clusters
inertia = kmeans.inertia_ # Within-cluster sum of squares
print(f"k={k}: silhouette={sil:.3f}, inertia={inertia:.1f}")クラスタリングの前にスケーリングを行うことは必須です。K-Meansはユークリッド距離を使用するため、スケールの大きい特徴量が距離計算を支配してしまいます。面接でこの点を見落とすと、基礎的な理解が不足していると判断される可能性があります。
PCA(主成分分析)は、分散が最大となる方向にデータを射影することで次元を削減します。可視化(2D/3Dへの射影)と前処理(ノイズ除去、後続モデルの高速化)の両方の目的で使用されます。面接では、寄与率(explained variance ratio)の解釈と、適切な主成分数の選択基準を説明できることが求められます。
PCAは、特徴量間に相関がありシグナルが少数の方向に集中している場合に効果を発揮します。一方、テキストデータやワンホットエンコーディングされたカテゴリ変数など、スパースで高次元のデータに適用すると、有用な構造が破壊される場合があります。そのようなケースでは、Truncated SVDや専用の埋め込み手法がより適切です。
Data Science & MLの面接対策はできていますか?
インタラクティブなシミュレーター、flashcards、技術テストで練習しましょう。
モデル評価指標と交差検証
適切な評価指標の選択は、アルゴリズムの選択以上に重要です。不均衡データ(例:詐欺率1%)に対して正解率99%のモデルがあったとしても、単に「詐欺でない」と予測し続けているだけかもしれません。面接官は、評価指標に関する質問を通じて候補者の実践的な判断力をテストします。
分類タスクでは、以下の4つの指標が面接で重点的に問われます。
- 適合率(Precision):陽性と予測したもののうち、実際に陽性である割合。偽陽性のコストが高い場面(スパムフィルタリングなど)で重視されます
- 再現率(Recall):実際の陽性のうち、正しく検出できた割合。偽陰性のコストが高い場面(疾病スクリーニングなど)で重視されます
- F1スコア:適合率と再現率の調和平均。どちらの誤りタイプも同程度に重要な場合に使用されます
- AUC-ROC:全ての分類閾値にわたるランキング品質を測定する指標。モデル間の比較に不可欠です
回帰タスクでは、RMSE(大きな誤差にペナルティを課す)、MAE(外れ値に頑健)、R2(説明される分散の割合)が主要な指標です。MAEとRMSEの使い分けを理解していることが、表面的な知識と本質的な理解の違いを示します。回帰に関する面接シナリオで実践的に練習することが推奨されます。
# evaluation_metrics.py
from sklearn.metrics import (
precision_score, recall_score, f1_score,
roc_auc_score, confusion_matrix
)
import numpy as np
# Simulated predictions on imbalanced data (5% positive class)
np.random.seed(42)
y_true = np.array([1]*50 + [0]*950)
y_pred = np.array([1]*40 + [0]*10 + [1]*30 + [0]*920) # Some errors
print(f"Precision: {precision_score(y_true, y_pred):.3f}") # 40/(40+30) = 0.571
print(f"Recall: {recall_score(y_true, y_pred):.3f}") # 40/(40+10) = 0.800
print(f"F1-Score: {f1_score(y_true, y_pred):.3f}") # Harmonic mean
cm = confusion_matrix(y_true, y_pred)
print(f"
Confusion Matrix:
{cm}")
# [[920, 30], -> TN=920, FP=30
# [10, 40]] -> FN=10, TP=40混同行列の正確な読み方は、繰り返し練習する価値があります。左上(真陰性)と右下(真陽性)が正しい予測を表し、対角線外の要素が2種類の誤りを表します。面接では混同行列が提示され、そこから適合率と再現率を手計算で求めるよう指示されることがあります。
交差検証についても特に注意が必要です。単純なホールドアウト分割では不十分な理由、k分割交差検証の仕組み、層化分割(Stratified K-Fold)が必要なケース(不均衡クラス)を説明できることが求められます。時系列データでは時間順の分割が必要であり、ランダム分割を適用すると未来のデータからリークが発生するという点は、面接で多くの候補者が見落とす落とし穴です。
正則化と過学習の防止戦略
バイアス-バリアンストレードオフは、機械学習理論において最も重要な概念です。バイアスが高いモデルは単純すぎて学習不足(underfitting)に陥り、バリアンスが高いモデルは複雑すぎて過学習(overfitting)を起こします。アルゴリズムの選択やハイパーパラメータの決定は、全てこのトレードオフの中で行われます。
正則化は、大きな係数にペナルティを課すことでモデルの複雑さを制御する手法です。Ridge回帰(L2正則化)は係数をゼロに近づけますが、全ての特徴量を保持します。Lasso回帰(L1正則化)は一部の係数を厳密にゼロにするため、暗黙的な特徴量選択を行います。Elastic Netは両者を組み合わせた手法です。これらの違いは、分類に関する面接質問と回帰の両方で問われます。
正則化は係数の大きさにペナルティを課す仕組みです。特徴量のスケールが異なる場合(年齢は数十、年収は数百万など)、スケールの小さい特徴量に対してペナルティが不当に大きくかかります。Ridge、Lasso、Elastic Netを適用する前には、必ず特徴量を標準化する必要があります。この点を見落とすことは、面接で非常によくあるミスです。
# regularization_comparison.py
from sklearn.linear_model import Ridge, Lasso, ElasticNet
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import make_pipeline
from sklearn.model_selection import cross_val_score
from sklearn.datasets import load_diabetes
X, y = load_diabetes(return_X_y=True)
models = {
"Ridge (L2)": make_pipeline(StandardScaler(), Ridge(alpha=1.0)),
"Lasso (L1)": make_pipeline(StandardScaler(), Lasso(alpha=0.1)),
"ElasticNet (L1+L2)": make_pipeline(StandardScaler(), ElasticNet(alpha=0.1, l1_ratio=0.5)),
}
for name, model in models.items():
scores = cross_val_score(model, X, y, cv=5, scoring='r2')
print(f"{name:25s} R2: {scores.mean():.4f} +/- {scores.std():.4f}")上記のコードでは、make_pipelineを使用してスケーリングと正則化を一つのパイプラインにまとめています。これにより、テストデータに対してスケーラーを個別にフィットしてしまうデータリーケージを防止できます。データ分割前に全データに対してfit_transformを適用することは、シニアレベルの面接では致命的なミスと見なされます。
2026年の技術面接で機械学習アルゴリズムに関して高い評価を得るには、理論的理解(数学的背景を説明できるか)、実践的実装力(コードを書けるか)、判断力(問題に応じて適切なアルゴリズムを選択できるか)の3つの次元で準備する必要があります。
データサイエンス面接対策トラックでは、これらの全ての次元をカバーする実践的な練習問題が用意されています。特に以下の領域が多くの面接質問を生み出しています。
- アルゴリズム選択:データセットの説明を基に、特定のアルゴリズムを選択する理由を論理的に説明する。データサイズ、特徴量の型、解釈性の要件、学習時間の制約を考慮する必要があります
- ハイパーパラメータチューニング:各パラメータが何を制御し、バイアス-バリアンストレードオフにどう影響するかを説明する。グリッドサーチとランダムサーチは基本であり、Optunaによるベイズ最適化も求められるようになっています
- 本番運用の考慮事項:データドリフト検出、モデルモニタリング、A/Bテスト、フィーチャーストアは、中級・上級ポジションの標準的なトピックです
- 説明可能性:説明可能なAIの重要性が高まる中、SHAP値や特徴量重要度の手法を理解していることが期待されます
今すぐ練習を始めましょう!
面接シミュレーターと技術テストで知識をテストしましょう。
まとめ
- 線形モデル(線形回帰、ロジスティック回帰)はあらゆるアルゴリズムの基盤であり、仮定、コスト関数、適用限界を理解してから複雑なアルゴリズムに進むべきです
- 決定木は単体では過学習しやすく、ランダムフォレスト(バギング)と勾配ブースティング(ブースティング)がそれぞれ異なるトレードオフプロファイルで補完します
- K-MeansとPCAは教師なし学習の基本ですが、必ずスケーリングを行い、各手法の限界を把握しておくことが重要です
- 評価指標はビジネス課題に合わせて選択する必要があります。不均衡データでは正解率だけでは不十分であり、適合率、再現率、F1スコア、AUC-ROCはそれぞれ異なる目的に対応します
- 正則化(Ridge、Lasso、Elastic Net)は過学習を制御しますが、パイプライン内で標準化された特徴量に対してのみ正しく機能します
- 2026年の面接で成功するためには、アルゴリズムの実装力だけでなく、選択の「理由」を論理的に説明する判断力を示すことが不可欠です
タグ
共有

