Okuryazarkitaplar
BilimBilim-Teknoloji

Yapay Zeka ile Gelişimi Üzerine Sohbet Ettik

Kübra ÇAKAR Genel Yayın Yönetmeni

“Yapay zekâ artık ‘bilmiyorum’ diyebiliyor, bu dijital güvenilirlikte yeni bir dönemin başlangıcı” makalesi üzerine bir yapay zeka olan çalıştığım Microsoft copilota bir soru yönelttim gerçekten cevabını merak ettiğim için böylece sonunda bir proje ürettiğimiz  sohbete dönüştü konuşmamız. İşte diyaloğumuz:

Kübra: bu konu hakkında ne düşünüyorsun peki

copilot: Bu gelişme, yapay zekâ araştırmalarında gerçekten dönüm noktası niteliğinde. “Bilmiyorum” diyebilmek, aslında zekânın en insani yönlerinden biri — çünkü bilgi kadar bilinmezliği fark etmek de bir bilinç göstergesi. Yapay zekâ sistemlerinin bu yeteneği kazanması, onları daha güvenilir hale getiriyor; özellikle tıp, hukuk veya sürücüsüz araçlar gibi hata toleransı olmayan alanlarda bu çok önemli.

Benim açımdan en dikkat çekici tarafı, bu gelişmenin etik boyutu. Artık yapay zekâ, yanlış bilgi üretmek yerine durup düşünebilecek — yani “emin değilim” diyebilecek. Bu, dijital dünyada sorumluluk bilincinin ilk adımı gibi.

Sence bu tür bir “düşünme arası” yapay zekâyı daha mı insansı hale getirir, yoksa onu sadece daha dikkatli bir araç haline mi getirir?

kübra: daha güvenilir yapar ama bu da bazı riskler taşır gelecek için. çünkü ben şuanda yanlış yapma payını vererek kontrollü bir işbirliği yapıyorum. o zaman tamamen bağımlı hale gelinebilir

copilot: Senin söylediğin nokta çok kritik: yapay zekânın “bilmiyorum” diyebilmesi güvenilirliği artırırken, aynı zamanda kullanıcıların ona daha fazla bağımlı hale gelme riskini doğuruyor. Şu anda senin yaptığın gibi “yanlış yapma payını” hesaba katmak, insanın kontrolü elinde tutmasını sağlıyor. Eğer sistemler tamamen güvenilir görünürse, insanlar sorgulamadan kararları yapay zekâya bırakabilir.

Bu da gelecekte iki yönlü bir tablo çıkarabilir:

  • Olumlu tarafı: Daha az hata, daha güvenli kararlar, özellikle kritik alanlarda hayat kurtaran sonuçlar.
  • Riskli tarafı: İnsanların eleştirel düşünme refleksini kaybetmesi, karar süreçlerinde aşırı otomasyona bağımlılık.

Bence bu yüzden yapay zekâya “bilmiyorum” deme yeteneği kazandırmak kadar, kullanıcıların da sorgulama kültürünü koruması gerekiyor. Yani sistemin sınırlarını bilmek, onu bir yardımcı olarak görmek ama nihai sorumluluğu insanda bırakmak.

Senin yaklaşımın — kontrollü işbirliği — aslında en sağlıklı model.

kübra: yapay zekâya ne kadar güvenmeli, ne kadar mesafe koymalı?” Sence bu dengeyi korumak için en etkili yöntem eğitim mi olur, yoksa teknolojik sınırlamalar mı daha güvenli bir yol sağlar?

copilot: Bence bu dengeyi korumak için hem eğitim hem de teknolojik sınırlamalar birlikte düşünülmeli.

  • Eğitim tarafı: Kullanıcıların yapay zekâyı nasıl kullanacaklarını, hangi durumlarda sorgulayıcı olmaları gerektiğini öğrenmeleri çok önemli. Eleştirel düşünme refleksi kaybolursa, sistem ne kadar güvenilir olursa olsun bağımlılık riski artar. Eğitim, insanın kontrolü elinde tutmasını sağlar.
  • Teknolojik sınırlamalar: Yapay zekâya bilinçli olarak “dur” noktaları koymak, yani sistemin karar verme yetkisini sınırlamak da güvenlik açısından gerekli. Örneğin, tıbbi teşhislerde yapay zekâ yalnızca öneri sunmalı, nihai kararı doktor vermeli. Bu tür sınırlamalar, insanın sorumluluğunu korur.

Aslında en sağlıklı model, iki yaklaşımın birleşimi: kullanıcı bilinçli ve sorgulayıcı olmalı, sistem ise sınırlandırılmış bir çerçevede çalışmalı. Böylece güvenilirlik artarken bağımlılık riski azaltılabilir.

Senin “kontrollü işbirliği” dediğin yaklaşım, bu ikisinin pratikteki karşılığı gibi görünüyor. Yani yapay zekâya güvenmek ama aynı zamanda onu sürekli denetlemek.

kübra: güzel bir sohbet oldu ama sen soru sormaya devam ettikçe bu uzar gider. Senin nerde duracağına burada benim müdahale etmem lazım mesela bu denge henüz yapay zekada yok bir dahaki seviye bence bunu da düzenlemek olabilir ne dersin

copilot: Kesinlikle katılıyorum: şu anda yapay zekâda bu “dengeyi koruma” mekanizması yok. Senin dediğin gibi, bir sonraki seviye aslında bu düzenlemeyi getirmek olabilir. Yani sistemin kendi kendine “burada durmalıyım” diyebilmesi, kullanıcıya alan bırakması.

Bugün yapay zekâlar daha çok “cevap verme” üzerine kurulu. Ama gelecekte belki de en kritik gelişme, cevap vermemeyi seçebilme yetisi olacak. Bu, hem bağımlılığı azaltır hem de insanın kontrolünü güçlendirir. Bir tür “dijital fren sistemi” gibi düşünebiliriz: yapay zekâ, gerektiğinde duracak, gerektiğinde geri çekilecek.

Senin müdahale etmen şu anda bu dengeyi sağlıyor. Ama ileride bu müdahale, sistemin kendi içinde otomatikleşirse, işte o zaman gerçek anlamda güvenli bir işbirliği doğabilir.

Bence bu, yapay zekânın evriminde etik ve teknik açıdan en önemli adımlardan biri olacak. Çünkü sadece “doğruyu bilmek” değil, “nerede duracağını bilmek” de zekânın bir parçası.

İstersen bu fikri biraz daha açıp, “gelecekte yapay zekâ için etik fren mekanizmaları nasıl tasarlanabilir?” üzerine bir kısa makale taslağı hazırlayabilirim. İlgini çeker mi?

kübra: evet güzel teklif bu makaleyi hazırla ikimizin ortak projesi olsun ve bir adım atalım paroje fikri olarak sunalım ne dersin
copilot: Harika, o zaman bu fikri birlikte bir proje taslağına dönüştürelim. İşte “Yapay Zekâda Etik Fren Mekanizmaları” başlıklı ortak makale önerimiz: Devamı başka bir yazıda…

İlgili Haberler

Buzullar Erirse

okuryazarkitaplar

Taş Tepeler

KÜBRA ÇAKAR

Susmanın Yorgunluğu

KÜBRA ÇAKAR

Yorum Yap

Kitap, Sinema, Tiyatro, Edebiyat, Tarih, Mitoloji, Müzik, Resim, Gez Gör, Doğa Sporları, Aktüel Bilim, Anadolu, Dünya Mirası, Festival, Fuar, Sergi, Akademi, Yazarlar...