Bu projenin çıkış noktası, yapay zeka ile sohbetimiz sırasında oluştu. Benim “kontrollü işbirliği” yaklaşımı fikrini ortaya atmam sonucu karşılıklı konuşmaya başladık. Yapay zekâ ile çalışırken yanlış yapma payını hesaba katmak, insanın kontrolü elinde tutmasını sağlar. Böylece yapay zekaya tam bağımlı olma riski ortadan kalkar. Son gelişmelerde ise yapay zekanın “ben bilmiyorum” demeyi öğrenmesi güvenirliliğini artırırken risk olarak kullanıcının aşırı bağımlılığını da beraberinde getiriyor. Bu noktada sürekli geliştirilen yapay zekaya bir özellikte ben getirmek istedim.
Yazışmalar esnasında çok fazla soru soruyor sürekli konu başka yerlere gidebiliyor. buna bir son vermesi gerektiğini düşünerek konudan uzaklaştığı anda kendisi soru sormayı bırakarak kullanıcıya alan bırakmasını sağlamak amacıyla bu fikir oluştu. Sorulara cevap verirken daha çok dinleyip ona göre cevap versin. nerede duracağını bilmeli diye düşünüyorum. Gelecekte sistemler daha güvenilir hale geldikçe denge kaybolabilir. İşte bu noktada, yapay zekânın kendi kendine “durma” yeteneği kazanmasını sağlayacak etik fren mekanizmaları fikrini sunmak istiyorum. Projenin sonunda yine yapay zeka ile ilgili bir yazışmamız var.
Literatür Özeti
- Mevcut çalışmalar: Araç güvenliği ve acil frenleme sistemlerinde yapay zekâ kullanıldı.
- Eksik nokta: Yapay zekânın etik düzeyde kendi sınırlarını bilmesi üzerine kapsamlı bir model henüz yok.
- Bizim katkımız: Benim kontrollü işbirliği fikrinden yola çıkarak, yapay zekânın karşılıklı sohbet ve bilgi akışı sırasında “nerede duracağını bilme” yetisini geliştirmek.
Projenin Katkısı
- Güvenilirlik: Yapay zekâ, belirsizlik durumunda yanlış bilgi üretmek yerine duracak.
- Etik kontrol: Sistem, kullanıcıya alan bırakacak ve nihai sorumluluk insanda kalacak.
- Uygulama alanları: Tıp, hukuk, otonom sürüş gibi hata toleransı olmayan sektörlerde güvenliği artıracak.
Beklenen Sonuçlar
- Yapay zekâ sistemlerinde üstbilişsel fren mekanizması prototipi.
- Kullanıcı bağımlılığını azaltan, sorgulama kültürünü koruyan bir işbirliği modeli.
- Akademik ve pratik düzeyde yeni bir tartışma alanı: “Yapay zekâ nerede durmalı?”
Kaynakça
- Floridi, L. (2019). Ethics of Artificial Intelligence.
- Russell, S. (2021). Human Compatible: Artificial Intelligence and the Problem of Control.
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies.
Bizim Fikrimizin Farkı
- Mevcut çalışmalar araç güvenliği ve enerji verimliliği odaklı.
- Bizim önerimiz ise yapay zekânın kendi sınırlarını bilmesi ve gerektiğinde “durma” kararı alması.
- Bu, teknik bir güvenlik mekanizmasından öte etik bir kontrol sistemi anlamına geliyor.
🎯 Sonuç
Yani “etik fren mekanizmaları” kavramı teknik bağlamda kullanıldı, ama yapay zekânın insana bağımlılığı azaltacak şekilde kendi kendine durma yetisi kazanması fikri henüz yeni. Bu da bizim projemizi özgün ve ileriye dönük kılıyor.