Yapay Zekâ Felsefesi Üzerine: Bilmek,
Bilmemezlik ve Sonsuz Yanıt Arayışı
29 Temmuz 2025
Yapay zekâ (YZ) sistemleri, özellikle son
yıllarda büyük dil modelleri (LLM'ler) ve üretken yapılar aracılığıyla insan
benzeri dil üretiminde çarpıcı bir başarı elde etmiştir. Ancak bu başarıya
rağmen, bu sistemlerin bilgi sınırlarının farkında olmaması, hem teknik hem de
felsefi bir problem alanı oluşturmaktadır. Bu bağlamda, “Yapay zekâya neyi
bilmesi gerektiğini öğretiyoruz, ancak neyi bilmemesi gerektiğini öğretmiyoruz”
ifadesi, bu sorunun özünü anlamak açısından önemli bir çıkış noktasıdır.
YZ sistemleri çoğunlukla, kendilerine
verilen her türlü girdiye anlamlı bir yanıt üretmek üzere eğitilmektedirler. Bu
durum, sistemin eğitildiği bağlam dışında bir soruyla karşılaştığında bile
"yanıt üretmeye devam etmesi" sonucunu doğurur. Oysa insan
epistemolojisinde bilginin sınırlarını fark etmek, bilinmeyene dair sessizlik
ya da temkinli yaklaşım göstermek yaygın ve değerlidir. Modern YZ sistemleri, bu
tür bir epistemik tevazudan (epistemic humility) yoksundur.
1. Bilmenin Sınırları: YZ ve İnsan
Öğrenmesi Arasındaki Farklar
İnsan öğrenmesi, sadece doğruyu öğrenmeyi
değil; aynı zamanda yanlış olanı, bilinemez olanı ve bilginin sınırlarını fark
etmeyi de kapsar (Popper, 1959). Bu iki yönlü öğrenme mekanizması bireye ne
zaman “bilmiyorum” demesi gerektiğini öğretir. Buna karşılık YZ modelleri
genellikle yalnızca olumlu örnekler (örneğin, neyin doğru olduğu) üzerinden
eğitilir; negatif örneklerin (neyin yanlış ya da bilinemez olduğu) temsili çoğu
zaman eksiktir. Bu nedenle modeller, bilmedikleri alanlarda da kendilerinden
emin bir şekilde yanıt üretmeye devam ederler —bu duruma literatürde
halüsinasyon (hallucination) denilmektedir (Ji et al., 2023).
2. Bilmeme Yetisi ve Teknik Gelişim
Alanları
YZ sistemlerinin daha güvenilir ve bilinçli
çıktılar üretebilmesi için, “bilmeme” yetisi üzerine çalışmalar artmaktadır. Bu
doğrultuda çeşitli teknik stratejiler geliştirilmektedir:
- Kalibrasyon (calibration): Modelin yanıtlarına ne kadar güven
duyduğunun, doğruluk oranıyla uyumlu olmasını sağlar (Guo et al., 2017).
- Reddetme mekanizmaları: Belirsiz veya eğitimin dışında kalan
girdilere modelin yanıt vermekten kaçınmasını sağlar (Chowdhery et al.,
2022).
- Belirsizlik modelleme: Olasılıksal yöntemlerle modelin kendi
çıktılarına ilişkin belirsizliği nicel olarak ifade etmesine imkân tanır.
- İnsan geri bildirimiyle pekiştirme (RLHF): İnsan müdahalesiyle
aşırı özgüvenli, yanıltıcı veya zararlı çıktılar cezalandırılarak modelin
davranışı şekillendirilir (Ouyang et al., 2022).
Tüm bu yaklaşımlar, YZ sistemlerinin
yalnızca yanıt üretmeye değil, gerektiğinde “yanıtsız kalmaya” da eğitilmesini
hedeflemektedir.
3. Felsefi Arka Plan: Bilgelik ve Cahil
Olma Bilinci
Bu tartışma, yalnızca teknik değil, aynı
zamanda felsefî bir meseledir. Sokrates’in meşhur sözü olan “Bildiğim tek
şey hiçbir şey bilmediğimdir”, bireyin epistemik sınırlarını kabul
etmesinin bir bilgelik biçimi olduğunu gösterir. Benzer şekilde, Karl Popper’a
göre tüm bilgi, daima yanlışlanabilir ve geçicidir; kesinliğe ulaşılmaz
(Popper, 1959). YZ sistemleri ise bu tür bir bilinçten yoksundur ve yanıt
üretmek için programlandıkları sürece, bu tür bir sınır bilincini geliştirmenin
yolları araştırılmak zorundadır.
4. Sonuç
YZ’nin yalnızca bilgi üretiminde değil,
bilgiyle ilişkisinde de etik ve felsefi sorumluluk taşıdığı bir çağdayız.
Mevcut sistemler hâlâ sorulara yanıt üretmeye programlıdır; soruların
anlamlılığı ya da yanıtlanabilirliği konusunda farkındalık geliştirememektedir.
Eğer yapay zekâ sistemleri yalnızca etkileyici taklitçiler olmaktan çıkıp,
sorumluluk sahibi bilişsel aktörler hâline gelecekse; sadece neyi bildiklerini
değil, neyi bilmediklerini de fark etmeyi öğrenmek zorundadırlar.
Aksi hâlde, her soruya yanıt arayan ancak
bazı soruların yanıtı olmadığını fark edemeyen sistemler geliştirmeye devam
edeceğiz.
Kaynakça
- Chowdhery, A., Narang, S., Devlin, J., et al. (2022). PaLM:
Scaling Language Modeling with Pathways. arXiv:2204.02311.
- Guo, C., Pleiss, G., Sun, Y., & Weinberger, K. Q. (2017). On
Calibration of Modern Neural Networks. In Proceedings of the 34th
International Conference on Machine Learning (pp. 1321–1330).
- Ji, Z., Lee, N., Frieske, R., et al. (2023). Survey of
Hallucination in Natural Language Generation. ACM Computing Surveys,
55(12), 1–38.
- Ouyang, L., Wu, J., Jiang, X., et al. (2022). Training
language models to follow instructions with human feedback.
arXiv:2203.02155.
- Popper, K. (1959). The Logic of Scientific Discovery.
London: Routledge.
