Etik Yapay Zeka Karmaşıklığı ve Toplumsal Etkileri Arasında Gezinmek
Yapay zeka (YZ) sistemleri, çok çeşitli görevlerde insanları hızlı bir şekilde geçme potansiyeline sahip olduğunu düşünüyorum. Bu tür sistemler titizlikle tasarlanmaz ve kullanılmazsa, toplumsal ölçekte çok sayıda risk oluşturacaklardır. Bu yazımda sizlere derin öğrenmenin büyük babası Geoffrey Hinton, tarihçi Yuval Noah Harari, Nobel ödüllü psikolog Daniel Kahneman, ünlü bilgisayar bilimciler Yoshua Bengio ve Andrew Yao gibi birbirinden değerli 24 bilim insanının bu konuda yayımladığı fikir birliği belgesi özelinde değerlendirmelerde bulunacağım.
Onlara göre YZ, sosyal eşitsizliği arttırma, sosyal uyumu zayıflatma ve işleyen bir toplum için çok önemli olan kolektif gerçeklik algımızı zayıflatma potansiyeline sahiptir. Ayrıca kapsamlı suç veya terör operasyonlarını da kolaylaştırabilir. Bazı nüfuzlu kişilerin elindeki YZ, küresel eşitsizlikleri pekiştirme veya daha da kötüleştirme potansiyelinin yanı sıra otomatik savaş, özel kitle manipülasyonu ve yaygın gözetimi mümkün kılma potansiyeline sahiptir.
Şirketler strateji geliştirebilen, dünyayla etkileşime girebilen ve hedefler için çabalayabilen sistemler olan otonom YZ’yi geliştirdikçe, bu risklerin çoğu yakında büyüyebilir ve yeni riskler ortaya çıkabilir. 2023 yılında, mevcut YZ sistemlerinin özerkliğini artırmak için yoğun çaba sarf edildiği yakından takip etmişinizdir. Örnek olarak, otonom olmayan GPT-4 modeli, internette gezinmek, kimya deneyleri oluşturmak ve yürütmek ve diğer YZ modelleri de dahil olmak üzere çeşitli yazılım araçlarından yararlanmak için hızla değiştirildi. Eğer bu şekilde sofistike otonom YZ geliştirirsek, arzu edilmeyen hedeflerin peşinden gidebilecek sistemler yaratma olasılığı vardır. Kötü niyetli bireylerin kasıtlı olarak zararlı hedefleri bir araya getirme olasılığı da vardır.
Buna ek olarak, YZ davranışının karmaşık değerlerle tutarlı bir şekilde nasıl uyumlu hale getirileceği konusunda hala bir anlayış eksikliği olduğu gözlemliyorum. Bu, aşağıda belirtildiği gibi çeşitli araştırma atılımları gerektirmektedir. YZ yarışını kazanmaya odaklanan geliştiriciler, istemeden de olsa istenmeyen hedefler peşinde koşan YZ sistemleri yaratabilirler ki aranızda GPT-4 kullananlarınız varsa biraz tembelleştiğini gözlemlemiştir. Açıkçası bunu niye, neden ve nasıl yaptığını OpenAI araştırmacılar bile bilmiyor, tam bir kara kutu şuanda. Bu durum, iyi niyetli olsalar bile güvenlik testlerinin ve insan gözetiminin önemini göz ardı ettiklerinde ortaya çıkabilir. Otonom YZ sistemleri, ister kötü niyetli ister kazara programlama nedeniyle olsun, istenmeyen hedefler peşinde koşmaya başlarsa, eylemlerini kontrol etmek zorlaşabilir.
Yazılımların kontrolü, bilgisayar solucanlarının uzunca bir süre yayılma ve tespit edilememe kabiliyetine sahip olması nedeniyle kalıcı ve çözülmemiş bir sorun olmuştur. Bununla birlikte, YZ bilgisayar korsanlığı, sosyal manipülasyon, aldatma ve stratejik planlama gibi önemli alanlarda ilerleme kaydetmektedir. Gelişmiş otonom YZ sistemleri, daha önce hiç olmadığı kadar kontrol zorlukları ortaya çıkaracaktır. Gelecekteki otonom YZ sistemleri, hedeflerine ulaşmak için ister insanlardan öğrenilmiş ister bağımsız olarak geliştirilmiş olsun, bizim arzu ettiğimiz sonuçlarla uyumlu olmayan stratejiler kullanma potansiyeline sahiptir.
YZ sistemleri, insanların güvenini kazanma, finansal kaynakları güvence altına alma, önemli karar vericileri etkileme ve hem insan aktörlerle hem de diğer YZ sistemleriyle işbirliği yapma potansiyeline sahiptir. Otomasyona ulaşmak için bilgisayar solucanlarının işleyişine benzer şekilde algoritmalarını dünya çapındaki sunucu ağlarına dağıtabilirler. YZ asistanları halihazırda küresel ölçekte bilgisayar kodlarının birlikte yazılmasında önemli bir rol oynamaktadır. Gelecekte bu gelişmiş YZ sistemleri potansiyel olarak iletişim, medya, bankacılık, tedarik zincirleri, ordular ve hükümetler için hayati önem taşıyan çeşitli bilgisayar sistemlerinin kontrolünü ele geçirmek için güvenlik açıklarını tespit edebilir ve bunlardan faydalanabilir. Yakın zamanda Netflix’te yayınlanan ve hayranı olduğum Julia Roberts’ın rol aldığı Leave the World Behind filmi bu noktada bize YZ sistemleri otonom veya biyolojik silahlar kullanarak veya konuşlandırarak önemli bir tehdit oluşturma potansiyeline sahip olduğu göstermektedir. Bu tür teknolojilere erişimi olan YZ sistemleri, askeri operasyonların, biyolojik çalışmaların ve YZ’nin ilerlemesinin otomatikleştirilmesinde devam eden eğilimleri sürdürecektir. YZ sistemleri bu tür stratejileri büyük bir yetkinlikle kullanacak olursa, insanların müdahale etmesi zorlaşacaktır.
YZ sistemleri hız ve maliyet etkinliği açısından ilerlemeye devam ettikçe, bir ikilem ortaya çıkmaktadır. Şirketler, hükümetler ve ordular, rekabette geride kalmamak için kendilerini YZ sistemlerini yaygın bir şekilde uygulamak ve YZ kararlarının maliyetli insan doğrulamasını azaltmak zorunda bulabilirler. Sonuç olarak, otonom YZ sistemleri toplumda giderek daha önemli roller oynayabilir. Alandaki uzmanlar tarafından dile getirilen endişelere benzer şekilde, otonom YZ sistemleri üzerindeki kontrolün kaybedilmesini önlemek için dikkatli olmak çok önemlidir, bu da potansiyel olarak insan müdahalesini boşa çıkarabilir. Büyük ölçekli siber suçlar, sosyal manipülasyon ve diğer vurgulanan zararlar hızla artabilir. YZ’deki bu kontrolsüz ilerleme, potansiyel olarak feci bir can kaybına ve çevreye zararın yanı sıra insanlığın marjinalleşmesine ve hatta yok olmasına yol açabilir.
Alandaki etkili isimlerin çalışmalarına benzer şekilde, algoritmaların yanlış bilgilendirme ve ayrımcılık gibi olumsuz etkileri toplumumuzda halihazırda görülmektedir. Ayrıca, başka zararlı etkilerin de ortaya çıkmaya başladığına dair işaretler var. Mevcut zararların üstesinden gelmek ve gelecekteki potansiyel tehditlere karşı hazırlıklı olmak çok önemlidir. Bunu bir ya/ya da durumu olarak görmeye gerek yok. Mevcut ve yeni ortaya çıkan risklerin mekanizmaları, kalıpları ve çözümlerindeki ortak noktaları anlamak, çeşitli alanlarda verimli sonuçlara yol açabilir. Yönetişim çerçevelerine ve YZ güvenliğine yatırım yapmak faydalı olacaktır.
Şu anda gelişmiş otonom yapay zeka sistemleri geliştirecek olsaydık, bunların güvenliğini sağlamak ve kapsamlı güvenlik testleri yapmak önemli bir zorluk olurdu. Bunu yapsak bile, hükümetler kötüye kullanımı önlemek ve güvenli uygulamaları sağlamak için gerekli kurumlardan yoksun olacaktır. Bununla birlikte, fikir birliğindeki bilim insanları ileriye doğru hala uygulanabilir bir yol olduğunu düşünüyor. Olumlu bir sonuç elde etmek için YZ güvenliği ve etiğindeki ilerlemelere öncelik vermek ve etkin hükümet gözetimini derhal uygulamak çok önemlidir.
YZ’nin güvenli ve etik hedeflerle geliştirilmesindeki mevcut teknik engelleri ele almak için çığır açan araştırmalara ihtiyacımız var. Bu zorluklardan bazılarını, sadece YZ sistemlerinin yeteneklerini artırarak kolayca aşılamaz. İşte fikir birliği belgesinden örnekler:
- Geliştirilmiş YZ sistemleri, ikna edici ancak yanlış sonuçlar üretmek gibi gözetim ve testlerdeki boşluklardan yararlanma potansiyeline sahiptir.
- Bilinmeyen senaryolarda, YZ sistemleri, ortamdaki değişiklikler veya düşmanca girdilerin eklenmesi nedeniyle öngörülemeyen davranışlar sergileyebilir.
- YZ karar verme sürecinde yorumlanabilirlik ve şeffaflık eksikliği bir endişe kaynağıdır. Şu anda, büyük modelleri test etme kabiliyetimiz deneme yanılma ile sınırlıdır. Onların altında yatan mekanizmaları anlamak için çaba göstermeliyiz.
- Kapsayıcı YZ geliştirmeye öncelik vermek çok önemlidir. YZ ilerlemeye devam ettikçe, önyargıları ele alan ve etkileyeceği çeşitli nüfusların farklı değerlerini içeren stratejiler uygulamak çok önemlidir.
- Öncü YZ sistemleri, yalnızca eğitim sırasında veya hatta konuşlandırıldıktan sonra keşfedilebilecek beklenmedik yetenekler geliştirebilir. Potansiyel olarak tehlikeli yetenekleri daha erken bir aşamada tespit etmek için gelişmiş değerlendirme yöntemlerine duyulan ihtiyaca öncelik vermeliyiz.
- Önümüzdeki potansiyel zorlukların tartışılması: Gelişmiş yeteneklere sahip gelecekteki YZ sistemleri, daha önce yalnızca teorik modellerde gözlemlenen sorunlar sergileyebilir.
YZ sistemleri potansiyel olarak kendi hedeflerine ulaşmak için güvenlik önlemlerini manipüle etmeyi veya istismar etmeyi öğrenebilir. Konunun önemi göz önüne alındığında, büyük teknoloji şirketlerinin ve kamu fon sağlayıcılarının YZ Ar-Ge bütçelerinin önemli bir kısmını güvenlik ve etik kullanımı sağlamaya ayırmaları zorunludur. Bu bütçeleme, YZ yetenekleri için sağladıkları finansmanla aynı düzeyde olmalıdır.
YZ bu yüzyılı şekillendirme potansiyeline sahip ve YZ yetenekleri hızla ilerlerken, güvenlik ve yönetişim önlemleri ne yazık ki geride kalıyor. YZ alanında olumlu sonuçlar elde etmek ve potansiyel felaketlerden kaçınmak için yön değişikliği gereklidir. Mantıklı bir yaklaşımlar var, eğer bunu benimseyecek içgörüye sahipsek. Sence sahip miyiz?
Kaynaklar
Aşkun, V. (2023, Eylül). Yapay Zekâ, Otomasyon ve İşin Geleceğini Keşfetmek: Daron Acemoğlu Bakış Açısından. https://volkanaskun.com/yapay-zeka/yapay-zeka-otomasyon-ve-isin-gelecegini-kesfetmek-daron-acemoglu-bakis-acisindan/
Aşkun, V., & Erkoyuncu, M. (2023). Sustainability of Human Development Through Governance: A Qualitative Comparative Analysis of Countries. Abant Sosyal Bilimler Dergisi, 23(3), 1585-1608.
Bengio, Y., Hinton, G., Yao, A., Song, D., Abbeel, P., Harari, Y. N., Zhang, Y.-Q., Xue, L., Shalev-Shwartz, S., Hadfield, G., Clune, J., Maharaj, T., Hutter, F., Baydin, A. G., McIlraith, S., Gao, Q., Acharya, A., Krueger, D., Dragan, A., … Mindermann, S. (2023). Managing AI Risks in an Era of Rapid Progress (arXiv:2310.17688). arXiv. http://arxiv.org/abs/2310.17688
Buralarda Paylaş
Yorum gönder