2026'da En Sık Sorulan 25 Veri Bilimi Mülakat Sorusu
2026 yılında veri bilimi mülakatlarında öne çıkan 25 kritik soru: istatistik, makine öğrenmesi, özellik mühendisliği ve MLOps konularında kapsamlı rehber.

Veri bilimi pozisyonları için yapılan mülakatlar, yüzeysel bilginin çok ötesine geçmektedir. 2026 yılı itibarıyla şirketler; istatistiksel temeller, model yorumlanabilirliği, veri sızıntısı kontrolü ve üretim ortamı farkındalığı gibi alanlarda derinlemesine bilgi sahibi adaylar aramaktadır. Bu rehber, gerçek mülakatlarda sıklıkla karşılaşılan 25 soruyu ve bu sorulara verilmesi beklenen teknik yanıtları kapsamlı biçimde ele almaktadır.
Mülakata hazırlanırken yalnızca kavramları ezberlemek yeterli değildir. Her sorunun ardındaki "neden" sorusunu yanıtlayabilmek ve kod yazarak kanıtlayabilmek, adayları diğerlerinden ayıran en önemli faktördür.
1. İstatistiksel Hipotez Testi Nedir ve Veri Biliminde Nasıl Kullanılır?
Hipotez testi, bir örneklemden elde edilen veriler aracılığıyla popülasyon hakkında istatistiksel çıkarımlar yapma yöntemidir. Temel bileşenler şunlardır: sıfır hipotezi (H₀), alternatif hipotez (H₁), anlamlılık düzeyi (α) ve p-değeri.
P-değeri, H₀ doğru olduğu varsayımı altında gözlemlenen veya daha uç bir sonucun elde edilme olasılığıdır. P-değeri α'dan küçükse H₀ reddedilir. Önemli bir nokta: p-değeri, H₀'ın doğru olma olasılığı değildir; bu yaygın yanılgı mülakatlarda adayları yanıltabilir.
# binomial_test.py
from scipy import stats
# Two-sided binomial test: is the coin fair?
result = stats.binomtest(k=8, n=10, p=0.5, alternative='two-sided')
print(f"p-value: {result.pvalue:.4f}") # 0.1094 (two-sided)
print(f"Reject H0 at alpha=0.05? {result.pvalue < 0.05}") # FalseYukarıdaki örnekte 10 atıştan 8'i tura gelen bir madeni para test edilmektedir. P-değeri 0.1094 olduğundan α=0.05 düzeyinde H₀ reddedilemez; ancak bu, paranın kesinlikle adil olduğu anlamına gelmez. Yeterli kanıt yokluğu, yokluğun kanıtı değildir.
2. Bayes İstatistiği ile Frekantist İstatistik Arasındaki Fark Nedir?
Frekantist yaklaşımda olasılık, uzun vadeli frekans olarak tanımlanır. Parametreler sabit ama bilinmezdir; veri rastlantısaldır. Bayes yaklaşımında ise olasılık, belirsizlik derecesini temsil eder. Parametreler rastlantısal değişkenlerdir ve ön bilgi (prior) kullanılarak güncellenir.
# bayesian_vs_frequentist.py
import numpy as np
from scipy import stats
# Frequentist: confidence interval for a mean
data = np.array([23.1, 25.4, 22.8, 24.9, 23.7, 25.1, 24.3])
ci = stats.t.interval(0.95, df=len(data)-1, loc=np.mean(data), scale=stats.sem(data))
print(f"95% CI (frequentist): [{ci[0]:.2f}, {ci[1]:.2f}]")
# Bayesian: posterior with conjugate prior (Normal-Normal)
prior_mean, prior_var = 24.0, 4.0 # prior belief
data_mean, data_var = np.mean(data), np.var(data, ddof=1) / len(data)
# Posterior parameters (conjugate update)
post_var = 1 / (1/prior_var + 1/data_var)
post_mean = post_var * (prior_mean/prior_var + data_mean/data_var)
post_ci = stats.norm.interval(0.95, loc=post_mean, scale=np.sqrt(post_var))
print(f"95% credible interval (Bayesian): [{post_ci[0]:.2f}, {post_ci[1]:.2f}]")Frekantist güven aralığı, "bu prosedürle oluşturulan aralıkların %95'i gerçek parametreyi kapsar" anlamına gelirken, Bayes güvenilir aralığı doğrudan "parametrenin bu aralıkta bulunma olasılığı %95'tir" biçiminde yorumlanabilir. Bayes yaklaşımı, alan bilgisini prior aracılığıyla modele entegre etmeye olanak tanır.
3. Eksik Veriyi Nasıl Ele Alırsınız?
Eksik veri mekanizmaları üç kategoriye ayrılır: MCAR (Missing Completely at Random), MAR (Missing at Random) ve MNAR (Missing Not at Random). Strateji seçimi bu mekanizmaya bağlıdır.
# missing_data_strategies.py
import pandas as pd
from sklearn.impute import KNNImputer, SimpleImputer
from sklearn.experimental import enable_iterative_imputer
from sklearn.impute import IterativeImputer
df = pd.DataFrame({
'age': [25, 30, None, 45, None, 38],
'income': [50000, None, 70000, 90000, 60000, None],
'score': [85, 90, 78, None, 88, 92]
})
# Strategy 1: KNN imputation (preserves local structure)
knn_imp = KNNImputer(n_neighbors=2)
df_knn = pd.DataFrame(knn_imp.fit_transform(df), columns=df.columns)
# Strategy 2: Iterative imputation (MICE-like, models each feature)
iter_imp = IterativeImputer(max_iter=10, random_state=42)
df_iter = pd.DataFrame(iter_imp.fit_transform(df), columns=df.columns)
# Strategy 3: Add missingness indicator (preserves signal in the pattern)
df['income_missing'] = df['income'].isna().astype(int)
print(df_knn.round(1))KNN doldurma, yerel yapıyı korurken; yinelemeli doldurma (MICE benzeri) her özelliği diğerlerinin fonksiyonu olarak modeller. Eksiklik göstergesi ekleme ise eksikliğin kendisinin tahmin edici bilgi taşıdığı durumlarda — örneğin kredi başvurularında bazı alanların boş bırakılması — değerlidir.
4. Hedef Kodlama (Target Encoding) Nedir ve Sızıntı Nasıl Önlenir?
Hedef kodlama, her kategorik değeri, o kategoriye karşılık gelen hedef değişkenin ortalamasıyla değiştirme işlemidir. One-hot encoding'e kıyasla yüksek kardinaliteli kategorik değişkenlerle çok daha iyi başa çıkar; ancak veri sızıntısına karşı dikkatli olunmalıdır.
# target_encoding.py
import pandas as pd
import numpy as np
from sklearn.model_selection import KFold
def target_encode_kfold(df, col, target, n_splits=5):
encoded = pd.Series(index=df.index, dtype=float)
global_mean = df[target].mean()
kf = KFold(n_splits=n_splits, shuffle=True, random_state=42)
for train_idx, val_idx in kf.split(df):
# Compute means only from training fold
means = df.iloc[train_idx].groupby(col)[target].mean()
encoded.iloc[val_idx] = df.iloc[val_idx][col].map(means)
# Fill categories unseen in training fold with global mean
encoded.fillna(global_mean, inplace=True)
return encoded
df = pd.DataFrame({
'city': ['Paris', 'Lyon', 'Paris', 'Marseille', 'Lyon', 'Paris',
'Marseille', 'Lyon', 'Paris', 'Marseille'],
'hired': [1, 0, 1, 0, 1, 1, 0, 0, 1, 1]
})
df['city_encoded'] = target_encode_kfold(df, 'city', 'hired')
print(df[['city', 'city_encoded', 'hired']])K-fold düzenlemesi, her katmanın doğrulama verisini yalnızca eğitim katmanlarının istatistiklerine göre kodlamasını sağlayarak sızıntıyı önler. Naif hedef kodlama uygulaması overfitting'e yol açar ve değerlendirme metriklerini gerçekçi olmayan biçimde şişirir.
5. Dengesiz Sınıflarla Çalışırken Hangi Metrikleri Kullanmalısınız?
Doğruluk (accuracy), dengesiz veri kümelerinde yanıltıcı olabilir. %95 negatif olan bir veri kümesinde her şeyi negatif tahmin eden model %95 doğruluk elde eder. Bu durumda daha anlamlı metrikler tercih edilmelidir.
# imbalanced_metrics.py
from sklearn.metrics import (
classification_report, precision_recall_curve,
average_precision_score, roc_auc_score
)
import numpy as np
# Simulated predictions on imbalanced data
np.random.seed(42)
y_true = np.array([0]*950 + [1]*50) # 95/5 imbalance
y_scores = np.random.beta(2, 5, 1000) # predicted probabilities
y_scores[y_true == 1] += 0.3 # positive class scores slightly higher
y_scores = np.clip(y_scores, 0, 1)
y_pred = (y_scores > 0.5).astype(int)
print(classification_report(y_true, y_pred, digits=3))
print(f"ROC AUC: {roc_auc_score(y_true, y_scores):.3f}")
print(f"Average Precision (AUPRC): {average_precision_score(y_true, y_scores):.3f}")AUPRC, sınıf dengesizliği yüksek olduğunda ROC-AUC'dan daha bilgilendirici bir metriktir; çünkü yalnızca pozitif sınıf performansına odaklanır. Dolandırıcılık tespiti veya nadir hastalık tanısı gibi senaryolarda AUPRC kritik önem taşır.
6. Veri Sızıntısı (Data Leakage) Nedir ve Nasıl Önlenir?
Veri sızıntısı, eğitim sırasında modelin üretim ortamında mevcut olmayacak bilgilere erişmesi durumunda ortaya çıkar. İki ana türü vardır: hedef sızıntısı (target leakage) ve eğitim-test kontaminasyonu.
# leakage_prevention.py
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.impute import SimpleImputer
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.model_selection import cross_val_score
import numpy as np
X = np.random.randn(1000, 10)
y = (X[:, 0] + X[:, 1] > 0).astype(int)
# WRONG: fit scaler on all data, then cross-validate
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X) # leakage: test fold info in scaling
# CORRECT: pipeline ensures preprocessing fits only on training folds
pipeline = Pipeline([
('imputer', SimpleImputer(strategy='median')),
('scaler', StandardScaler()),
('model', GradientBoostingClassifier(n_estimators=100, random_state=42))
])
scores = cross_val_score(pipeline, X, y, cv=5, scoring='roc_auc')
print(f"AUC (no leakage): {scores.mean():.3f} +/- {scores.std():.3f}")Scikit-learn Pipeline kullanımı, ön işleme adımlarının yalnızca eğitim katmanlarına fit edilmesini garantiler. Bu, çapraz doğrulama sırasında en sık yapılan hatalardan birini otomatik olarak önler ve gerçekçi performans tahminleri sağlar.
7. Transformer Mimarisinde Self-Attention Mekanizması Nasıl Çalışır?
Self-attention, bir dizideki her tokenın diğer tüm tokenlara olan ilgisini hesaplar. Her token için üç vektör üretilir: Query (Q), Key (K) ve Value (V). Attention ağırlıkları, Q ve K'nın nokta çarpımının karekök(d_k)'ya bölünmesi ve softmax uygulanmasıyla elde edilir.
# self_attention.py
import torch
import torch.nn.functional as F
def self_attention(x, d_k):
batch_size, seq_len, d_model = x.shape
# Linear projections for Q, K, V
W_q = torch.randn(d_model, d_k) * 0.1
W_k = torch.randn(d_model, d_k) * 0.1
W_v = torch.randn(d_model, d_k) * 0.1
Q = x @ W_q # (batch, seq_len, d_k)
K = x @ W_k
V = x @ W_v
# Scaled dot-product attention
scores = Q @ K.transpose(-2, -1) / (d_k ** 0.5) # (batch, seq_len, seq_len)
weights = F.softmax(scores, dim=-1) # attention weights
output = weights @ V # (batch, seq_len, d_k)
return output, weights
# Example: 1 batch, 4 tokens, 8-dim embeddings
x = torch.randn(1, 4, 8)
out, attn = self_attention(x, d_k=8)
print(f"Output shape: {out.shape}") # (1, 4, 8)
print(f"Attention weights:\n{attn[0].detach().numpy().round(3)}")Ölçeklendirme faktörü (1/√d_k), vektör boyutu büyüdükçe nokta çarpımlarının patlamasını önleyerek gradyan akışını stabilize eder. Multi-head attention, bu mekanizmayı paralel olarak birden fazla temsil alt uzayında çalıştırır.
8. SQL ile Departman Bazında İkinci En Yüksek Maaşı Nasıl Bulursunuz?
Bu klasik SQL sorusu, pencere fonksiyonlarını veya alt sorguları etkili biçimde kullanabilme becerisini ölçer.
-- second_highest_salary.sql
-- Approach: correlated subquery counting distinct higher salaries
SELECT d.department_name, e.employee_name, e.salary
FROM employees e
JOIN departments d ON e.department_id = d.id
WHERE (
SELECT COUNT(DISTINCT e2.salary)
FROM employees e2
WHERE e2.department_id = e.department_id
AND e2.salary > e.salary
) = 1
ORDER BY d.department_name;Alternatif olarak DENSE_RANK() pencere fonksiyonu da kullanılabilir: WHERE DENSE_RANK() OVER (PARTITION BY department_id ORDER BY salary DESC) = 2. Pencere fonksiyonu yaklaşımı, büyük veri kümelerinde korelasyonlu alt sorgudan genellikle daha iyi performans gösterir.
9. Pandas'ta map, apply ve transform Arasındaki Fark Nedir?
Bu üç fonksiyon benzer görünse de farklı amaçlara hizmet eder ve kullanım senaryoları önemli ölçüde ayrışır.
# pandas_operations.py
import pandas as pd
df = pd.DataFrame({
'team': ['A', 'A', 'B', 'B', 'A'],
'score': [10, 20, 30, 40, 50]
})
# map: element-wise on Series
df['team_upper'] = df['team'].map({'A': 'Alpha', 'B': 'Beta'})
# apply: arbitrary function per row
df['score_label'] = df['score'].apply(lambda x: 'high' if x > 25 else 'low')
# transform: group-level, same shape output (broadcasts back)
df['team_mean'] = df.groupby('team')['score'].transform('mean')
df['score_normalized'] = df.groupby('team')['score'].transform(
lambda x: (x - x.mean()) / x.std()
)
print(df)map yalnızca Series üzerinde element bazında çalışır. apply satır veya sütun bazında keyfi fonksiyonlar uygular. transform ise gruplama sonrası aynı şekli koruyarak sonuçları orijinal DataFrame'e yayar; bu özellik özellikle grup normalizasyonu ve grup istatistiklerini mevcut sütunlara ekleme işlemlerinde değerlidir.
10. SHAP Değerleri ile Model Yorumlanabilirliği Nasıl Sağlanır?
SHAP (SHapley Additive exPlanations), oyun teorisinden ilham alarak her özelliğin bir tahmine katkısını ölçer. Hem global (tüm veri kümesi) hem de lokal (tekil tahmin) yorumlanabilirlik sağlar.
# feature_importance_shap.py
import shap
import xgboost as xgb
from sklearn.datasets import make_classification
# Generate synthetic dataset
X, y = make_classification(n_samples=1000, n_features=10,
n_informative=5, random_state=42)
# Train XGBoost model
model = xgb.XGBClassifier(n_estimators=100, random_state=42, eval_metric='logloss')
model.fit(X, y)
# SHAP explanation
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X)
# Global importance: mean absolute SHAP value per feature
import numpy as np
importance = np.abs(shap_values).mean(axis=0)
for i in np.argsort(importance)[::-1]:
print(f"Feature {i}: {importance[i]:.4f}")SHAP değerlerinin toplamı, model tahminini temel değerden (base value) sapmasını tam olarak açıklar. Bu tutarlılık özelliği, diğer önem ölçütlerinden üstünlük sağlar ve regülasyon gerektiren sektörlerde modelin kara kutu olmaktan çıkarılmasına katkı sağlar.
11. Bias-Variance Dengesi Nedir?
Bias-variance dengesi, makine öğrenmesindeki temel bir kavramdır. Yüksek bias, modelin eğitim verisinde bile yetersiz performans gösterdiği underfitting durumunu; yüksek varyans ise modelin eğitim verisini ezberleyip yeni veriye genelleşemediği overfitting durumunu ifade eder.
Model karmaşıklığı arttıkça bias azalır, varyans artar. Matematiksel olarak beklenen hata şöyle ayrıştırılır: E[Hata] = Bias² + Varyans + Gürültü. Optimum nokta, toplam hatanın minimize edildiği yerdedir. Bu dengeyi yönetmek için regularizasyon (L1/L2), dropout, erken durdurma ve çapraz doğrulama teknikleri kullanılır.
12. Gradient Descent Optimizasyon Algoritmaları Arasındaki Farklar Nelerdir?
SGD (Stochastic Gradient Descent) her iterasyonda tek bir örnek kullanır; gürültülüdür ama sık güncelleme sağlar ve büyük veri kümelerinde bellek açısından verimlidir. Mini-batch SGD küçük gruplar kullanır; gürültü ve verimlilik arasında denge kurar.
Adam optimizer, adaptif öğrenme hızları kullanır ve momentum ile RMSProp'u birleştirir; birinci moment (ortalama gradyan) ve ikinci moment (kareli gradyan) tahminlerini tutar. 2026 itibarıyla çoğu derin öğrenme uygulamasında Adam veya AdamW (ağırlık çürümesiyle düzeltilmiş sürüm) tercih edilmektedir. Adaptif optimizatörler genellikle daha hızlı yakınsama sağlar; ancak bazı durumlarda iyi ayarlanmış SGD, genelleme açısından üstün sonuçlar verebilir.
13. Çapraz Doğrulama Stratejileri Nasıl Seçilir?
K-fold çapraz doğrulama, veri kümesini k eşit parçaya böler; her parça bir kez test seti olarak kullanılır. Stratified k-fold, sınıf oranlarını her katmanda korur; dengesiz veri setlerinde zorunludur.
Leave-one-out (LOO-CV) küçük veri setleri için uygundur ama hesaplama maliyeti yüksektir. Zaman serisi verileri için walk-forward validation (kayan pencere doğrulaması) kullanılmalı; gelecekten geçmişe sızıntı kesinlikle önlenmelidir. Grup k-fold ise bağımlı gözlemler (örneğin aynı hastadan alınan çoklu ölçümler) söz konusu olduğunda tercih edilir.
14. Regularizasyon Teknikleri: L1 ve L2 Arasındaki Fark
L1 regularizasyon (Lasso), ağırlıkların mutlak değerlerini penalize eder: penalty = λ Σ|wᵢ|. Bazı ağırlıkları tam sıfıra indirger ve seyrek çözümler üretir; otomatik özellik seçimi için kullanılabilir. L2 regularizasyon (Ridge), ağırlıkların karelerini penalize eder: penalty = λ Σwᵢ². Ağırlıkları sıfıra yaklaştırır ama tam sıfır yapmaz; çoklu doğrusallık sorununda etkilidir.
Elastic Net, her iki yaklaşımı α parametresiyle birleştirir. L1'in seyreklik özelliği, yüksek boyutlu veri setlerinde özellik seçimi görevi görür; yorumlanabilirliğin kritik olduğu sağlık ve finans uygulamalarında özellikle değerlidir.
15. Karar Ağaçlarında Bölünme Kriterleri Nasıl Çalışır?
Sınıflandırma ağaçlarında Gini safsızlığı ve bilgi kazancı (entropi tabanlı) en yaygın kriterlerdir. Gini safsızlığı, rastgele seçilen bir elemanın yanlış sınıflandırılma olasılığını ölçer: Gini = 1 - Σpᵢ². Bilgi kazancı, entropi düşüşünü ölçer: IG = H(parent) - Σ(|child|/|parent|) x H(child).
Regresyon ağaçlarında ise MSE veya MAE minimize edilir. Gini safsızlığı hesaplama açısından daha hızlıdır; bu nedenle scikit-learn varsayılan olarak onu kullanır. Dengesiz sınıflarda entropi daha duyarlı bölünmeler üretebilir.
16. Ensemble Yöntemleri: Bagging ile Boosting Arasındaki Fark
Bagging (Bootstrap Aggregating), bağımsız modeller eğitir ve tahminleri ortalar. Her model rastgele veri alt örneklemesi üzerinde eğitilir. Varyansı azaltır; Random Forest bu yaklaşımın en başarılı örneğidir ve hem satır hem sütun rastgeliği ekler.
Boosting ise sıralı modeller eğitir; her model öncekinin hatalarını ağırlıklandırarak düzeltir. Hem bias hem de varyansı azaltabilir; ancak overfitting riski daha yüksektir ve gürültülü verilere karşı daha duyarlıdır. XGBoost, LightGBM ve CatBoost modern boosting uygulamalarının önde gelen örnekleridir.
17. Principal Component Analysis (PCA) Nasıl Çalışır?
PCA, yüksek boyutlu verideki varyansı maksimize eden ortogonal doğrultular (principal components) bulur. Kovaryans matrisinin özdeğer ayrışımına dayanır: büyük özdeğerlere karşılık gelen özvektörler en fazla varyansı açıklar.
PCA uygulamadan önce verinin standartlaştırılması zorunludur; aksi takdirde büyük ölçekli özellikler baskın çıkar. Kaç bileşen tutulacağını belirlemek için açıklanan varyans oranı (explained variance ratio) incelenir. Genellikle toplam varyansın %95'ini açıklayan minimum bileşen sayısı tercih edilir. PCA doğrusal bir yöntemdir; doğrusal olmayan yapılar için t-SNE veya UMAP daha uygundur.
18. K-Means Kümeleme Algoritmasının Sınırlamaları Nelerdir?
K-means'in bilinen sınırlamaları şunlardır: k sayısının önceden belirlenmesi gerekmesi, küresel olmayan küme şekillerini (hilal, halka gibi) modelleyememesi, outlier'lara duyarlılık ve küresel minimum yerine lokal minimuma takılma riski.
Bu zayıflıkları aşmak için DBSCAN (yoğunluk tabanlı, k gerektirmez ve gürültü noktalarını tanımlar), Gaussian Mixture Models (esnek eliptik küme şekilleri) veya hiyerarşik kümeleme kullanılabilir. Silhouette skoru ve dirsek yöntemi (elbow method) optimal k seçiminde yardımcı olur; k-means++ başlatma stratejisi ise yakınsama sorununu büyük ölçüde azaltır.
19. Zaman Serisi Analizi: Durağanlık (Stationarity) Neden Önemlidir?
Bir zaman serisi, istatistiksel özellikleri (ortalama, varyans, otokorelasyon) zaman içinde değişmiyorsa durağan (stationary) kabul edilir. ARIMA gibi klasik modeller durağanlık varsayar; bu varsayım sağlanmazsa model tahminleri güvenilir olmaz.
Durağanlık testleri için Augmented Dickey-Fuller (ADF) ve KPSS testleri kullanılır. Bu iki test tamamlayıcıdır: ADF birim kök test ederken KPSS durağanlığı doğrudan sınar. Durağan olmayan serileri dönüştürmek için fark alma (differencing), logaritmik dönüşüm veya mevsimsel ayrıştırma teknikleri uygulanır.
20. A/B Testi Tasarımında Dikkat Edilmesi Gereken Temel Noktalar
A/B testi tasarımında üç kritik faktör vardır: örneklem büyüklüğü hesabı (power analizi), test süresi ve çoklu karşılaştırma problemi. Power analizi; etki büyüklüğü, anlamlılık düzeyi (α) ve istenen istatistiksel güç (genellikle 0.80) parametrelerine dayanır.
Çoklu karşılaştırma probleminde yanlış pozitif riskini kontrol etmek için Bonferroni düzeltmesi veya FDR (False Discovery Rate) kontrolü uygulanmalıdır. Peek problemi özellikle önemlidir: test sonuçlarına erken bakıp istatistiksel anlamlılık görüldüğünde testi durdurmak, Tip I hata oranını ciddi ölçüde artırır. Sequential testing veya Bayesian A/B testi bu soruna pratik çözümler sunar.
21. Özellik Ölçeklendirme: StandardScaler, MinMaxScaler ve RobustScaler Farkı
StandardScaler (Z-score normalizasyonu), ortalamayı 0, standart sapmayı 1 yapar: z = (x - μ) / σ. Outlier'lara karşı nispeten sağlamdır. MinMaxScaler, değerleri [0,1] aralığına sıkıştırır; outlier'lara son derece hassastır. RobustScaler, medyan ve IQR kullanır: scaled = (x - median) / IQR; outlier'lı verilerde en sağlam seçenektir.
Ölçeklendirme seçimi algoritmaya bağlıdır: uzaklık tabanlı algoritmalar (KNN, SVM, k-means) ve regularizasyon kullanan modeller ölçeklendirmeye duyarlıdır. Ağaç tabanlı modeller (Random Forest, XGBoost) ölçeklendirme gerektirmez; bölünmeler yalnızca sıralamaya dayanır.
22. Gradient Boosting Ağaçlarında Hiperparametre Optimizasyonu
XGBoost ve LightGBM için en kritik hiperparametreler şunlardır: n_estimators (ağaç sayısı), learning_rate (shrinkage faktörü), max_depth veya num_leaves (model karmaşıklığı), subsample ve colsample_bytree (rastgelelik ve overfitting önleme), min_child_weight (yaprak düğüm minimum örnek sayısı).
Düşük öğrenme hızı ile çok sayıda ağaç kombinasyonu genellikle iyi genelleme sağlar. Erken durdurma (early stopping) ile aşırı öğrenme önlenir ve doğrulama performansı izlenir. Bayesian optimizasyon veya Optuna gibi araçlarla hiperparametre araması yapmak, grid search'e kıyasla çok daha verimlidir.
23. Derin Öğrenmede Batch Normalization'ın Rolü
Batch normalization, her mini-batch içinde aktivasyonları normalize eder (ortalama 0, varyans 1). Sonrasında öğrenilen γ (ölçek) ve β (kayma) parametreleriyle yeniden ölçeklendirir. Sağladığı avantajlar: daha yüksek öğrenme hızlarına olanak tanır, ağırlık başlangıç değerlerine duyarlılığı azaltır, hafif bir düzenleştirici etki sağlar ve iç kovaryans kaymasını (internal covariate shift) azaltır.
2026 itibarıyla transformer mimarilerinde Layer Normalization tercih edilmektedir; çünkü batch boyutundan bağımsız çalışır ve değişken uzunluktaki dizilerle daha iyi başa çıkar. Instance Normalization ise görüntü sentezi görevlerinde yaygındır.
24. Büyük Veri Ortamlarında Makine Öğrenmesi Ölçeklendirme Stratejileri
Veri büyüklüğü arttıkça farklı paralel ve dağıtık stratejiler devreye girer. Veri paralelliği (data parallelism), aynı modeli farklı veri parçaları üzerinde eş zamanlı eğitir ve gradyanları toplar. Model paralelliği (model parallelism), modeli farklı cihazlara böler; çok büyük modellerin tek bir cihaza sığmadığı durumlarda zorunludur.
Spark MLlib, dağıtık makine öğrenmesi için; Ray ve Dask ise Python tabanlı dağıtık hesaplama için yaygın seçeneklerdir. Özellik mağazası (feature store) kullanımı, büyük ölçekli sistemlerde özellik hesaplama tutarlılığını sağlar ve eğitim-servis tutarsızlığını (training-serving skew) önler.
25. MLOps ve Model İzleme: Üretim Ortamında Nelere Dikkat Edilmelidir?
Modelin üretim ortamına alınmasından sonra izlenmesi gereken başlıca sorunlar şunlardır: veri kayması (data drift), kavram kayması (concept drift), model bozunumu (model decay) ve altyapı performansı.
Veri kayması, girdi dağılımının zamanla değişmesini ifade eder — örneğin kullanıcı demografisinin değişmesi. Kavram kayması ise girdi-çıktı ilişkisinin değişmesidir — örneğin ekonomik koşulların farklılaşmasıyla kredi temerrüt kalıplarının değişmesi. İzleme araçları (MLflow, Evidently AI, Arize) bu sorunları tespit etmek için istatistiksel testler (PSI, KL divergence) kullanır. Otomatik yeniden eğitim tetikleyicileri ve A/B gölge dağıtımı (shadow deployment) üretim ortamında model güvenilirliğini ve iş değerini korur.
Data Science & ML mülakatlarında başarılı olmaya hazır mısın?
İnteraktif simülatörler, flashcards ve teknik testlerle pratik yap.
Sonuç
Veri bilimi mülakatları, istatistiksel temelden üretim ortamı farkındalığına uzanan geniş bir yelpazede bilgi derinliği gerektirir. Bu 25 soru, 2026 yılındaki mülakatların temel eksenlerini kapsamaktadır: istatistiksel çıkarım, eksik veri yönetimi, model değerlendirme, özellik mühendisliği, veri sızıntısı önleme, derin öğrenme ve MLOps.
Teknik bilginin yanı sıra mülakatlarda aranılan özellikler arasında problem çözme yaklaşımı, üretim deneyimi ve belirsizliklerle başa çıkma becerisi öne çıkmaktadır. Her kavramı kod yazarak pekiştirmek ve gerçek veri setleri üzerinde uygulamak, mülakat performansını anlamlı biçimde artıran en etkili hazırlık yöntemi olarak öne çıkmaktadır.
Etiketler
Paylaş
İlgili makaleler

Makine Öğrenmesi Algoritmaları: Teknik Mülakatlar İçin Kapsamlı Rehber
Makine öğrenmesi algoritmalarını derinlemesiyle öğrenin: denetimli öğrenme, karar ağaçları, kümeleme, model değerlendirme metrikleri ve düzenlileştirme yöntemleri. 2026 veri bilimi mülakatlarına hazırlık için Python kod örnekleriyle.

Rust Mulakat Sorulari: 2026 Kapsamli Rehber
En sik sorulan 25 Rust mulakat sorusu. Ownership, borrowing, lifetime, trait, async/await, es zamanlilik konulari detayli cevaplar ve kod ornekleriyle.

Kubernetes Mülakat Rehberi: Pods, Services ve Deployments Detaylı Anlatım
Kubernetes mülakatlarında Pods, Services ve Deployments konularında sorulan sorular -- YAML örnekleri, ağ mekanizmaları ve ölçeklendirme stratejileri ile 2026 rehberi.