2026 Yilinda En Cok Sorulan 25 Veri Analitigi Mulakat Sorusu

2026 veri analitigi mulakat sorulari: SQL, Python, Power BI, istatistik ve davranissal sorular. Her seviyeye uygun kod ornekleriyle ayrintili yanitlar.

SQL sorgulari, Python betikleri ve dashboard gorsellestirmelerini kapsayan veri analitigi mulakat sorulari

2026 veri analitigi mulakat sorulari yalnizca SQL sozdizimi ya da grafik olusturma becerisini olcmuyor. Ise alim ekipleri adaylarin karmasik veri kumelerinden anlam cikarma, teknik olmayan paydaslara bulgulari aktarma ve her metrigi bir is sonucuna baglama yetkinligini degerlendiriyor. Bu rehber, junior, mid-level ve senior veri analisti pozisyonlarinda en sik karsilasilan 25 soruyu kapsiyor.

Bu Rehber Nasil Kullanilir?

Her soru ozlu bir model yanit ve uygun oldugu yerlerde calistirilabilir SQL veya Python kodu iceriyor. Cozumu okumadan once sorgulari sifirdan yazma pratigi yapmak gerekiyor. Mulakat yapanlar ezberlenmis yanitlardan cok akil yurutme surecine onem veriyor.

Veri Analisti Mulakatlarinda SQL Sorulari

SQL, veri analitigi mulakatlarinda en cok test edilen beceri olmaya devam ediyor. Iliskisel veritabanina sahip her sirket, analistlerin yardim almadan sorgu yazmasini bekliyor.

1. WHERE ile HAVING arasindaki fark nedir?

WHERE, toplama isleminden once satirlari filtreler. HAVING, toplama isleminden sonra gruplari filtreler. Bu ikisini karistirmak, teknik degerlendirmelerde en sik yapilan hatalardan biridir.

sql
-- monthly_revenue.sql
SELECT
  DATE_TRUNC('month', order_date) AS month,
  SUM(amount)                     AS revenue
FROM orders
WHERE status = 'completed'          -- row-level filter
GROUP BY month
HAVING SUM(amount) > 10000;         -- group-level filter

WHERE, veritabani motoru GROUP BY islemini gerceklestirmeden once veri kumesini daraltir. HAVING ise toplanmis sonuc uzerinde calisir. Mumkun oldugunda WHERE kullanmak sorgu performansini arttirir, cunku calisma kumesini yurutme planinin daha erken asamasinda kucultmus olur.

2. Pencere fonksiyonlarini pratik bir ornekle aciklayin

Pencere fonksiyonlari, sonuc kumesini daraltmadan, gecerli satirla iliskili bir satir kumesi uzerinde deger hesaplar. Siralama, kumulatif toplamlar ve donemsel karsilastirmalar icin vazgecilmezdir.

sql
-- user_ranking.sql
SELECT
  user_id,
  purchase_date,
  amount,
  ROW_NUMBER() OVER (PARTITION BY user_id ORDER BY purchase_date) AS purchase_rank,
  SUM(amount)   OVER (PARTITION BY user_id ORDER BY purchase_date) AS running_total,
  LAG(amount)   OVER (PARTITION BY user_id ORDER BY purchase_date) AS prev_amount
FROM purchases;

ROW_NUMBER her kullanici icin sirali bir siralama atar. SUM(...) OVER(...) self-join gerektirmeden kumulatif toplam hesaplar. LAG dogrudan karsilastirma icin bir onceki satirin degerini ceker. Mulakat yapanlar adaylardan genellikle bu kalip uzerinden aydan aya buyume hesaplamalarini ister.

3. Tekrar eden kayitlar nasil tespit edilir ve temizlenir?

Tekrar eden veri tespiti, olay gunlukleri, CRM ciktilari veya ucuncu taraf veri akislariyla calisan analistlerin gunluk gorevlerinden biridir.

sql
-- deduplicate_events.sql
WITH ranked AS (
  SELECT *,
    ROW_NUMBER() OVER (
      PARTITION BY user_id, event_type, DATE_TRUNC('minute', created_at)
      ORDER BY created_at
    ) AS rn
  FROM events
)
SELECT * FROM ranked WHERE rn = 1;

CTE, her tekrar grubunda satir numarasi atar. Yalnizca rn = 1 olanlari tutmak, ilk kaydedilen girdiyi dondurur. Bu yaklasim orijinal veriyi korurken gurultuyu filtreler.

4. Haftalik kohort bazinda retention hesaplayan bir sorgu yazin

Kohort retention analizi, urun ve buyume ekiplerinin en cok talep ettigi analizlerden biridir. SQL kalıbı tum veritabanlarinda tutarli bir yapı izler.

sql
-- weekly_cohort_retention.sql
WITH cohorts AS (
  SELECT
    user_id,
    DATE_TRUNC('week', MIN(event_date)) AS cohort_week
  FROM user_events
  GROUP BY user_id
),
activity AS (
  SELECT
    c.cohort_week,
    DATE_TRUNC('week', e.event_date) AS active_week,
    COUNT(DISTINCT e.user_id)        AS active_users
  FROM user_events e
  JOIN cohorts c ON c.user_id = e.user_id
  GROUP BY c.cohort_week, DATE_TRUNC('week', e.event_date)
)
SELECT
  cohort_week,
  EXTRACT(WEEK FROM active_week - cohort_week) AS weeks_since_signup,
  active_users
FROM activity
ORDER BY cohort_week, weeks_since_signup;

Ilk CTE her kullanicinin kayit haftasini belirler. Ikinci CTE kohort basina haftalik tekil aktif kullanici sayisini hesaplar. Son sorgu sonucu bir retention matrisine donusturur. Mulakat yapanlar adaylardan is yorumunu aciklamasini bekler: 1. haftadaki sert dusus bir ise alistirma problemine isaret ederken, 4. haftadan sonraki duz egri istikrarli bir cekirdek kullanici tabanina isaret eder.

5. CTE nedir ve ne zaman alt sorgu yerine tercih edilmelidir?

Common Table Expression (CTE), WITH ifadesiyle tanimlanan adlandirilmis gecici bir sonuc kumesidir. CTE'ler okunabilirligi arttirir ve recursive sorgulara olanak tanir. Alt sorgular, hata ayiklamasi zor, derin ic ice gecmis SQL uretme egilimindedir. Ayni turetilmis tabloya sorgu icinde birden fazla kez referans verildiginde veya mantik uc ya da daha fazla donusum adimi icerdiginde CTE tercih edilmelidir.

Python Veri Analizi Mulakat Sorulari

Python sorulari Pandas, veri temizleme is akislari ve kodun is terimleriyle aciklanabilme becerisine odaklanir. Mulakat yapanlar akademik soyutlamalar degil, pragmatik cozumler gormek ister.

6. Pandas DataFrame'de eksik degerler nasil ele alinir?

Eksik veriler toplamalari ve model girdilerini bozar. Yaklasim, sutun turune ve is baglamina gore degisir.

python
# handle_missing.py
import pandas as pd
import numpy as np

df = pd.read_csv('sales.csv')

# Inspect the extent of missing data
print(df.isnull().sum())
print(df.isnull().mean().round(3))  # percentage per column

# Strategy 1: drop rows where critical columns are null
df_clean = df.dropna(subset=['customer_id', 'amount'])

# Strategy 2: fill numeric columns with median (robust to outliers)
df['amount'] = df['amount'].fillna(df['amount'].median())

# Strategy 3: fill categorical columns with the mode
df['region'] = df['region'].fillna(df['region'].mode()[0])

Eksiklik orani %5'in altindaysa ve sutun kritikse satir silme islemi uygulanabilir. Medyan ile doldurma, carpik dagilimlar icin ortalamadan daha guvenlidir. Mod ile doldurma, baskin bir degere sahip kategorik sutunlar icin uygundur. Doldurma stratejisinin belgelenmesi, denetim izleri acisindan kritik onem tasir.

7. merge, join ve concatenate: hangisi ne zaman kullanilir?

Pandas, DataFrame'leri birlestirmek icin birden fazla yontem sunar. Secim, islemin satir bazli mi yoksa sutun bazli mi olduguna ve anahtar tabanli bir eslesme gerekip gerekmedigne bagli olarak degisir.

python
# combine_dataframes.py
import pandas as pd

orders = pd.read_csv('orders.csv')
customers = pd.read_csv('customers.csv')

# Key-based merge (equivalent to SQL JOIN)
result = orders.merge(customers, on='customer_id', how='left')

# Stack rows from multiple sources
all_events = pd.concat([events_q1, events_q2], ignore_index=True)

# Add columns side-by-side (same row count required)
combined = pd.concat([features, labels], axis=1)

merge, anahtar tabanli birlestirmeler icin dogru secimdir. Varsayilan axis=0 ile concat satirlari ust uste yigar. axis=1 ile concat ise sutunlari yan yana ekler. how='left' kullanmak sol DataFrame'deki tum satirlari korur; bu, SQL'deki LEFT JOIN ile ayni mantiga sahiptir.

8. Satis verilerini gruplama, toplama ve donusturme

GroupBy islemleri, SQL'deki GROUP BY'in Pandas karsiligidir. Bu kalip hemen her veri analisti odev calismasinda karsimiza cikar.

python
# sales_analysis.py
import pandas as pd

df = pd.read_csv('transactions.csv', parse_dates=['date'])

# Monthly revenue by product category
monthly = (
    df.groupby([pd.Grouper(key='date', freq='M'), 'category'])
    .agg(revenue=('amount', 'sum'), orders=('order_id', 'nunique'))
    .reset_index()
)

# Add a column with each category's share of total monthly revenue
monthly['share'] = (
    monthly.groupby('date')['revenue']
    .transform(lambda x: x / x.sum())
    .round(4)
)

print(monthly.head(10))

agg ile adlandirilmis toplama, ciktiyi okunabilir tutar. transform, grup duzeyinde bir hesaplamayi her satira geri yayar ve ayri bir merge adimini gereksiz kilar. Bu kombinasyon, ad hoc raporlama gorevlerinin buyuk cogulunlugunu karsiler.

9. Bir veri kumesinde aykiri degerleri tespit etme ve ele alma

Aykiri deger tespiti, asiri degerlerin veri girisi hatasi mi, dolandiricilik sinyali mi yoksa gercek uc durum mi oldugunu belirlemeye yardimci olur.

python
# detect_outliers.py
import pandas as pd
import numpy as np

df = pd.read_csv('transactions.csv')

# IQR method
Q1 = df['amount'].quantile(0.25)
Q3 = df['amount'].quantile(0.75)
IQR = Q3 - Q1
lower = Q1 - 1.5 * IQR
upper = Q3 + 1.5 * IQR

outliers = df[(df['amount'] < lower) | (df['amount'] > upper)]
print(f'Outliers found: {len(outliers)} ({len(outliers)/len(df)*100:.1f}%)')

# Cap instead of remove (winsorization)
df['amount_capped'] = df['amount'].clip(lower=lower, upper=upper)

IQR yontemi, ceyrekler arasi aralik (IQR) degerinin 1,5 katini asan degerleri isaretler. Sinirlandirma (winsorization) satir sayisini korurken asiri degerlerin etkisini sinirlar. Silme islemi yalnizca aykiri degerlerin acik hatalar oldugu durumlarda uygundur.

Data Analytics mülakatlarında başarılı olmaya hazır mısın?

İnteraktif simülatörler, flashcards ve teknik testlerle pratik yap.

Istatistik ve Olasilik Sorulari

Istatistiksel okuryazarlik, yalnizca rakamlari raporlayan analistlerle bu rakamlari dogru yorumlayanlari birbirinden ayirir. Bu sorular temel anlayisi test eder.

10. p-degerini anlasilir bir dille aciklayin

p-degeri, sifir hipotezi dogru kabul edildiginde, gozlemlenen sonuc kadar asiri veya daha asiri bir sonuc elde etme olasiligini ifade eder. 0,03'luk bir p-degeri, sifir hipotezinin dogru olma olasiliginin %3 oldugu anlamina gelmez. Sifir hipotezi dogru olsaydi, bu kadar asiri sonuclarin %3 oraninda sans eseri ortaya cikacagi anlamina gelir. Esik deger (alfa) genellikle 0,05 olarak belirlenir, ancak secim ilgili is baglaminda yanlis pozitifin maliyetine baglidir.

11. Medyan ne zaman ortalama yerine tercih edilmelidir?

Ortalama, asiri degerlere duyarlidir. Gelir verileri, islem tutarlari ve oturum sureleri, medyanin daha temsili bir merkezi egilim verdigi klasik orneklerdir. Birkac yuksek degerli kurumsal anlasma iceren bir veri kumesi, ortalama degeri tipik bir musterinin deneyiminin cok ustune tasiyabilir. Medyanin ortalama ile birlikte raporlanmasi ve standart sapmanin eklenmesi, paydaSlara eksiksiz bir tablo sunar.

12. Korelasyon ile nedensellik arasindaki fark nedir?

Korelasyon, iki degisken arasindaki dogrusal iliskinin gucunu ve yonunu olcer. Nedensellik ise bir degiskenin digerini dogrudan etkiledigini ifade eder. Dondurma satislari ile bogulma vakalari korelasyon gosterir, cunku her ikisi de yazin artar; ancak biri digerinin nedeni degildir. Nedensellik kurmak icin kontrollü deney (A/B testi) veya difference-in-differences ya da aracsal degiskenler gibi titiz bir nedensel cikarim cercevesi gerekir.

13. Tip I ve Tip II hatalari bir is ornegi ile aciklayin

Tip I hata (yanlis pozitif), bir testin sifir hipotezini yanlis bir sekilde reddetmesi durumunda ortaya cikar. Ornek: yeni bir odeme akisinin donusum oranini arttirdigini varsaymak, oysa gercekte hicbir etkisi olmamasi ve gereksiz bir urun degisikligine yol acmasi. Tip II hata (yanlis negatif), bir testin gercek bir etkiyi tespit edememesi durumunda ortaya cikar. Ornek: testin gercek %2'lik bir artisi tespit edecek yeterli orneklem buyuklugune sahip olmamasi nedeniyle eski odeme akisini korumak. Orneklem buyuklugunu artirmak Tip II hatalari azaltir. Alfa esigini dusurmek Tip I hatalari azaltir ancak Tip II hatalari arttirir.

Power BI ve Veri Gorsellestirme Sorulari

Gorsellestirme sorulari, adayin dogru grafik turunu secip secemedigini, surdurulebilir dashboard'lar olusturup olusturamadigi ve teknik olmayan kitlelere veri hikayeleri anlatip anlatamadigini degerlendirir.

14. DAX nedir ve SQL'den nasil farklidir?

DAX (Data Analysis Expressions), Power BI, Analysis Services ve Excel Power Pivot'ta kullanilan formul dilidir. Satir kumeleri uzerinde calisan SQL'den farkli olarak, DAX dilimleyicilere, filtrelere ve satir baglamina gore dinamik olarak degisen bir filtre baglami icinde calisir. DAX'taki CALCULATE fonksiyonu, bir ifadeyi degerlendirmeden once filtre baglamini degistirir; bu, SQL'de dogrudan karsiligi olmayan bir kavramdir.

15. Import modu ile DirectQuery arasindaki farki aciklayin

Import modu, verileri Power BI'in bellek ici motoruna (VertiPaq) yukler; bu, hizli sorgu performansi saglar ancak zamanlanmis yenilemeler gerektirir. DirectQuery, gercek zamanli olarak kaynak veritabanina sorgu gonderir; veri guncelligini garanti eder ancak kaynak sistemin performansina bagimlidir. 2026'da Microsoft Fabric, OneLake'ten Parquet dosyalarini iceri aktarma veya SQL ucu noktasini sorgulamadan okuyan Direct Lake modunu sunuyor; bu mod, import modunun hizini neredeyse gercek zamanli guncellikle birlestiriyor.

16. Cubuk grafik ile cizgi grafik ne zaman kullanilir?

Cubuk grafikler ayrik kategorileri karsilastirir (bolgeye gore gelir, urune gore sayi). Cizgi grafikler surekli araliklarla egilim gosterir (gunluk aktif kullanicilar, aylik kayip orani). Kategorik veriler icin cizgi grafik kullanmak, ilgisiz kategoriler arasinda bir egilim ima eder ve izleyiciyi yaniltir. Sik sorulan bir devam sorusu pasta grafikleri ile ilgilidir: insan gozu acilari dogru karsilastirmakta zorlandigi icin, pasta grafikler yalnizca bes veya daha az dilim oldugunda butunun parcalarini gostermek icin kullanilmalidir.

17. Yavas bir Power BI raporu nasil optimize edilir?

Yavas raporlar genellikle veri modelindeki fazla sutunlardan, satir satir degerlendirilen karmasik DAX olcumlerinden veya milyonlarca satiri sorgulayan gorsellerden kaynaklanir. Optimizasyon kontrol listesi sunlari icerir: model boyutunu kucultmek icin kullanilmayan sutunlari kaldirmak, mumkun oldugunda yineleyici fonksiyonlari (SUMX, FILTER) yineleyici olmayan esdegerleriyle degistirmek, sayfa basina gorsel sayisini 15'in altinda tutmak ve yuksek kardinaliteli boyutlar icin toplama tablolari kullanmak. Power BI Desktop'taki Performance Analyzer, hangi gorselin veya DAX sorgusunun darbogazina neden oldugunu tam olarak tespit eder.

Davranissal ve Vaka Calismasi Sorulari

Teknik beceriler adaylari mulakat asamasina tasir. Davranissal sorular ise teklifi alip almayacaklarini belirler. Her yanit STAR cercevesini izlemelidir: Durum (Situation), Gorev (Task), Eylem (Action), Sonuc (Result).

18. Veri analizinin bir is kararini degistirdigi bir durumu anlatin

Guclu yanitlar, degisen belirli bir metrigi, kullanilan analiz yontemini ve dolar veya yuzde cinsinden etkiyi icerir. Zayif yanitlar, bir dashboard'u bir sonuca baglamadan tanimlar. Ornek yapi: "Bir SaaS urunundeki kayip analizi, 48 saat icinde ise alistirmayi tamamlamayan kullanicilarin 30 gunluk kayip oraninin %60 daha yuksek oldugunu ortaya koydu. Urun ekibi, 24. saatte tetiklenen otomatik bir e-posta dizisi ekledi ve 30 gunluk kayip oranini 8 puan azaltti."

19. Paydas taleplerinin celismesi durumunda ne yapilir?

Bu soru, onceliklendirme ve iletisim becerilerini test eder. Onerilen yaklasim: her talebin arkasindaki is sorusunu netlestirmek, ortak metrikleri belirlemek, her iki ihtiyaci da karsilayan tek bir dashboard onerisinde bulunmak ve odunleri seffaf bir sekilde belgelemek. Veri yonetisimi kaygilari veya kaynak kisitlari gibi gerekcelerle bir paydasa "hayir" demek, bir alternatif sunuldugu surece kabul edilebilir.

20. Karmasik bir analizi teknik olmayan bir kitleye aciklama

Mulakat yapanlar genellikle adaylardan regresyon veya kohort analizini bir pazarlama mudurune anlatir gibi aciklamasini ister. En iyi yanitlar benzetmeler kullanir, jargondan kacinir ve aciklamayi bir is sonucuna baglar. "Kohort analizi musterileri kayit olduklu aya gore gruplar ve uc ay sonra kacinin hala aktif oldugunu izler. Grafik, Ocak kayitlarinin Subat kayitlarindan daha iyi elde tutuldugunu gosteriyor; bu da Aralik sonunda yapilan ise alistirma degisiklikleriyle uyumlu."

STAR Cercevesi Referansi

Durum (Situation): baglami belirleyin. Gorev (Task): hedefi tanimlayin. Eylem (Action): atilan somut adimlari aciklayin. Sonuc (Result): etkiyi sayisallastirin. Mulakat yapanlar Sonuc adimini atlayan belirsiz yanitlari olumsuz degerlendirir.

Veri Temizleme ve ETL Mulakat Sorulari

Veri kalitesi sorunlari, bir analistin zamaninin onemli bir bolumunu tuketir. Bu sorular gercek dunya veri duzenleme becerilerini test eder.

21. ETL pipeline'i calistiktan sonra veri nasil dogrulanir?

Dogrulama kontrolleri satir sayilarini (kaynak ile hedef karsilastirmasi), kritik sutunlardaki null oranlarini, tablolar arasi referans butunlugunu ve deger dagilimi kaymalarini (sessiz sema degisikliklerini tespit etme) kapsamalidir. Her pipeline calistirilmasi sonrasi otomatik calistirilabilir kontroller, hatali verinin dashboard'lara ulasmasi onler.

python
# etl_validation.py
import pandas as pd

def validate_pipeline(source_df: pd.DataFrame, target_df: pd.DataFrame) -> dict:
    checks = {}
    # Row count match
    checks['row_count_match'] = len(source_df) == len(target_df)
    # Null rate on critical columns
    for col in ['user_id', 'event_date', 'amount']:
        null_rate = target_df[col].isnull().mean()
        checks[f'{col}_null_rate'] = round(null_rate, 4)
    # Revenue reconciliation
    source_total = source_df['amount'].sum()
    target_total = target_df['amount'].sum()
    checks['revenue_diff_pct'] = round(
        abs(source_total - target_total) / source_total * 100, 2
    )
    return checks

results = validate_pipeline(source, target)
for check, value in results.items():
    print(f'{check}: {value}')

Bu fonksiyon, bir uyari sistemine beslenebilecek bir dogrulama sonuclari sozlugu dondurur. %0,01'in uzerindeki gelir farki bir sorusturma baslatmalidir.

22. Normallesmis ve denormalize veri arasindaki fark nedir?

Normallesmis veri, bilgiyi iliskili tablolar arasinda bolerek fazlaligi en aza indirir (3NF). Denormalize veri, tabloları okuma agirlikli analitik sorgular icin optimize edilmis daha genis, duz yapilarda birlestirir. OLTP sistemleri veri butunlugu icin normallesmeyi tercih eder. Veri ambarlari ve BI araclari, sorgu hizi icin denormalizeyi (yildiz semasi, kar tanesi semasi) tercih eder. Bu odunlesmeyi anlamak, verimli veri pipeline'lari tasarlamanin temelidir.

Ileri Duzey Analitik Sorulari

Senior roller, deney tasarimi, tahminleme ve fonksiyonlar arasi veri stratejisi konularinda deneyim gerektirir.

23. Sifirdan bir A/B testi nasil tasarlanir?

Bir A/B testi bes bilesen gerektirir: acik bir hipotez ("CTA dugmesinin rengini griden yesile degistirmek, tiklanma oranini %5 arttiracaktir"), birincil metrik (tiklanma orani), beklenen etki buyuklugu ve istenen guce (genellikle %80) dayali orneklem buyuklugu hesaplamasi, kullanicilarin kontrol ve test gruplarina rastgele atanmasi ve haftalik mevsimsellik etkisini hesaba katan onceden belirlenmis test suresi. Testin en az iki tam is dongusu boyunca calistirilmasi, hafta ici gunu yanlilinin sonuclari carpitmasini onler.

Yaygin A/B Testi Hatalari

Test istatistiksel anlamliliga ulasmadan sonuclara bakmak, yanlis pozitif oranini sisirmis olur. Testi baslatmadan once analiz planini, orneklem buyuklugunu ve suresini onceden kayit altina almak gerekir.

24. Huni analizini ve kayiplarin en cok nerede onemli oldugunu aciklayin

Huni analizi, kullanicilarin bir dizi adim boyunca ilerlemesini izler (orn: ana sayfa ziyareti, urun goruntulemesi, sepete ekleme, odeme, satin alma). En yuksek etkili optimizasyon, en buyuk yuzde dususunu degil, en buyuk mutlak kaybi iceren adimi hedefler. Urun goruntulemede 1.000 kullanicidan sepete eklemede 600'e dusen %40'lik kayip, 400 kaybedilmis kullaniciyi temsil eder. Odemede 100 kullanicidan satin almada 50'ye dusen %50'lik kayip ise yalnizca 50 kaybedilmis kullaniciyi temsil eder. Ilk darbogazin onceliklendirilmesi, toplam donusumde daha fazla artis saglar.

25. Paydaslarin gercekten kullandigi bir KPI dashboard'u nasil olusturulur?

Dashboard'lar, hiyerarsi olmadan cok fazla metrik gosterdiginde basarisiz olur. Etkili bir KPI dashboard'u ters piramit yapisini izler: en ustte bir veya iki kuzey yildizi metrigi (orn: aylik tekrarlayan gelir, net tavsiye skoru), ortada destekleyici metrikler (donusum orani, kayip orani, ortalama siparis degeri) ve detayli analizlere erisim saglayan alt katmanlar. Ust duzey gorunumun yedi veya daha az metrikle sinirlandirilmasi bilissel yuku azaltir. Otomatik aciklamalarin eklenmesi ("5 Mart'ta gelir %12 dustu, neden: odeme agi kesintisi") ham sayilarin eksik biraktigi baglami saglar.

Sonuc

  • SQL pencere fonksiyonlari, CTE'ler ve kohort sorgulari neredeyse her veri analisti teknik degerlendirmesinde karsimiza cikar. Bunlari ezberden yazmak temel bir beklentidir.
  • Python Pandas yetkinligi, ad hoc analiz gorevlerinin %80'ini karsiler. merge, groupby, transform ve null veri yonetimine odaklanmak gerekir.
  • Istatistiksel akil yurutme (p-degerleri, korelasyon-nedensellik farki, deney tasarimi) rakamlari raporlayan analistlerle bunlari dogru yorumlayanlari ayirir.
  • Power BI ve gorsellestirme sorulari grafik secimi, DAX temelleri ve dashboard performans optimizasyonunu test eder.
  • STAR cercevesini izleyen ve sayisallastirilmis sonuclar iceren davranissal yanitlar, belirsiz anlatimlardan daha basarili olur.
  • SharpSkill uzerinde veri analitigi mulakat modullerini pratik yapin ve bu kavramlari zamanli alistirmalarla pekistirin.
  • Ilgili bir hazirlik icin Veri Bilimi mulakat rehberi, senior veri analisti rolleriyle ortusebilecek makine ogrenmesi ve istatistiksel modelleme sorularini kapsar.

Pratik yapmaya başla!

Mülakat simülatörleri ve teknik testlerle bilgini test et.

Etiketler

#data-analytics
#interview
#sql
#python
#power-bi
#statistics

Paylaş

İlgili makaleler