Yapay Zekâ ve Etik Sorunlar: İnsanlık, Teknolojinin Kontrolünü Kaybediyor Mu?
1950’lerden bu yana hızla gelişen yapay zekâ, hayatımızı pek çok açıdan kolaylaştırsa da veri güvenliği ve mahremiyetin ihlali, yanlış ya da önyargılı bilgiler üretme, chatbotlar veya sanal asistanlar aracılığıyla insanların kararlarını etkileyerek manipüle etme ve savaşlarda kullanımı gibi etik sorunları da beraberinde getiriyor.
Dragon Claws/İStock.com
Daha önce insanlar tarafından yapılan bazı işleri artık yapay zekânın yaptığı bir çağdayız. Makine zekâsı da denilen yapay zekâ, makinelerin insan eylem ve davranışlarını canlandırmasına yardımcı olan bir teknoloji. Bu, yapay zekânın planlama, muhakeme, yaratıcılık ve öğrenme gibi insana özgü yetenekleri sergileme kabiliyeti olduğu anlamına geliyor. Kısaca yapay zekâyı insana özgü yeteneklere sahip bir algoritma olarak tanımlayabiliriz. Ancak bu yetenekler, etkileyici olduğu kadar bazı riskleri de beraberinde getiriyor. Bu risklerin başında veri güvenliği ve mahremiyet sorunları geliyor. Yapay zekâ uygulamaları, kullanıcıların verilerini toplarken bu verilerin gizliliğini ihlal edebiliyor. Örneğin yapay zekâya dayalı pek çok uygulama, kullanıcıların dijital ortamdaki izlerini takip edebiliyor. Kullanıcıların kişisel verileri, yapay zekâ uygulamaları tarafından izinleri olmaksızın kullanılabiliyor ve yapay zekâ uygulamaları kullanıcıları tarafından reklam verenler ile onların izinleri olmaksızın paylaşılabiliyor.
https://gencraft.com/generate
Yapay zekâ, kaynağı belirsiz, doğruluğu kontrol edilmemiş ya da hatalı bilgi üretebilmesi nedeniyle de etik sıkıntılara yol açabiliyor. Çıkarıma dayalı istatistik ve makine öğrenimi yöntemleriyle verileri işleyen yapay zekâ, doğruluğu kontrol edilmemiş bilgiler üretebilir. Yapay zekânın elde ettiği bulguların anlaşılmasının zor veya yanlış yönlendirilmiş olabileceğini de göz ardı etmemeliyiz. Yapay zekânın, sağlık, hukuk veya güvenlik alanlarında verdiği kararların giderek daha kritik hâle geldiği düşünüldüğünde, üretebileceği kaynağı belirsiz ya da hatalı bilgilerin ciddi sorunlara neden olabileceği ortadadır. Ayrıca hatalı kararların alınması durumunda bundan kimin sorumlu olacağı da hâlen belirsizdir. Örneğin hatalı taraf geliştiriciler mi, uygulamaları kullananlar mı yoksa yapay zekânın kendisi mi olacak?
Yapay zekâ, yalnızca hatalı ya da doğruluğu denetlenmemiş bulgular üretebilmesi ya da mahremiyet ihlaline yol açması nedeniyle etik ihlallere neden olmuyor, aynı zamanda önyargılar, mevcut sistemdeki etik sorunları pekiştirme ve enformasyonun asimetrik dağılımına yol açma riski de taşıyor. Yapay zekânın dayandığı veriler, ırk, cinsiyet ya da diğer demografik unsurlarla ilgili önyargılar içeriyorsa yapay zekâ bu önyargıları öğrenip yeniden üretebilir. Dolayısıyla yapay zekâ, toplumdaki mevcut önyargıları sürdürmüş olur. Bu durum, farklılıkların, azınlıkların sesinin daha az duyulduğu dünya düzenini pekiştirmiş olur. İnsanlar bu nedenle gerçeklere kurumların ve toplumsal olarak kabul görmüş doğruların perspektifinden bakar hâle gelir. Bu da bir büyük veri uçurumu oluşmasına zemin hazırlar.
https://gencraft.com/generate
Son yıllarda medyada da yapay zekânın kullanımı yaygınlaşmaya başladı. Haberlerde kullanılan verilerin belirli normlara, siyasi, ekonomik veya sosyal değerlere sahip olduğu görülüyor. Örneğin tamamen yapay zekâya dayalı evrensel ve tarafsız habercilik anlayışı ile ortaya çıkan NewsGPT platformunda Batı merkezli haberlere çok daha fazla yer verildiği gözleniyor. Dünyada dolaşan verilerin büyük çoğunluğunun Batı merkezli olması nedeniyle yapay zekâ da bu durumu sürdürüyor. NewsGPT'nin haberlerinde gözlemlenen bir diğer sorun ise haberlerin güncelliği. Örneğin 6 Şubat 2023 tarihinde Türkiye'de meydana gelen deprem, NewsGPT'de olaydan dokuz ay sonra haberleştirilmiş. Bunun, dünyanın herhangi bir yerindeki okuyucuyu yanıltabileceği çok açık. Ayrıca yapay zekâ tarafından üretilen fotoğraflar da tıpkı haberlerinde olduğu gibi gerçeğin çarpıtılmasına yol açabilir.
Katamba & Kayıhan, 2024
Fox News tarafından kullanılan haber fotoğrafı (solda) ve aynı haber için yapay zekâ tarafından oluşturulan ve kullanılan haber fotoğrafı (sağda)
İnsanların duygusal durumlarını anlayıp onları etkileyebilme kapasitesi de yapay zekânın taşıdığı risklerden biri ve etik sorunlara yol açabilir. Özellikle chatbotlar veya sanal asistanlar insanların tercihlerini etkileme potansiyeline sahip. Yapay zekânın bir kişinin tercihlerini, chatbotlar veya sanal asistanlar aracılığıyla belirleyebilecek şekilde manipüle etmesi, kararlarını etkilemesi, böylece kişiyi yönlendirmesi olasıdır.
Daha ciddi bir etik sorun ise yapay zekâya dayalı silah sistemlerinin kullanılması ile oluşabilecek risklerdir. Savaşlarda otonom silah sistemlerinin kullanılması yani insan kontrolünün devre dışı bırakılması savaş suçlarına ve sivil kayıplara neden olabilir.
https://gencraft.com/generate
Yapay zekâ geliştikçe ve dönüştükçe beraberinde getirdiği etik sorunların azalıp azalmayacağı tartışma konusu. Ancak yapay zekânın etkili bir şekilde kullanılabilmesi ve insanlığın teknoloji üzerindeki kontrolünü kaybetmemesi için temel etik kurallara ihtiyaç olduğu da ortada. Önümüzdeki yıllarda yapay zekânın daha da yaygınlaşmasıyla birlikte makine öğrenimi algoritmalarını kullanmak için uygun etik kuralların geliştirilmesi daha da önemli hâle gelecek.
Yapay zekânın etik ihlallerini önleyebilmek için etik ilkelerle uyumlu algoritmaların tasarlanması gerekiyor. Örneğin fiyat karşılaştırma algoritmaları insanları aldatmaktan kaçınacak şekilde programlanmalı. Benzer şekilde sağlık alanında kullanılan algoritmalar ise hastalara ilaçlarını almalarını hatırlatmanın sadece gerekli bakımının bir parçası mı yoksa müdahaleci bir yaklaşım mı olduğunu değerlendirebilecek şekilde tasarlanmalı. Bu risklerle birlikte yapay zekânın neden olduğu etik sorunları tartışan ve bunun çözümüne odaklanan çalışmaların artması bu alanda ilerleme kaydedilmesi açısından umut vadediyor.
Sözlük
Büyük veri uçurumu: Veri erişimindeki asimetrilerden kaynaklanan gerilimler ve az sayıda internet ve teknoloji şirketinin pazara hâkim olması
Enformasyonun asimetrik dağılımı: Bireyler veya gruplar arasında bilginin eşitsiz bir şekilde dağılması, birilerinin diğerlerine kıyasla daha fazla bilgiye sahip olması ve bu eşitsizliğin karar alma süreçleri ve güç ilişkileri üzerinde belirleyici etkiler yaratması
Kaynaklar:
- Cave, S., Nyrup, R., Vold, K., & Weller, A. (2018). Motivations and risks of machine ethics. Proceedings of the IEEE, 107(3), 562-574.
- De-Lima, S., Felipe, M. & Ceron, W. (2022). Artificial Intelligence in News Media: C u r r e n t Perceptions and Future Outlook. Journalism and Media 3: 13– 26. https://doi. org/10.3390/ journalmedia3010002
- Jameel, T., Ali, R., & Toheed, I. (2020, January). Ethics of Artificial Intelligence: Research Challenges and Potential Solutions. In 2020 3rd International Conference on Computing, Mathematics and Engineering Technologies (iCoMET) (pp. 1-6). IEEE.
- Jansen, S. C. (2022). What was artificial intelligence? Doi 10.32376/3f8575cb.0cc62523
- Katamba, M., & Kayıhan, B. (2024). A Descriptive Analysis for the Future of Journalism Studies in Emerging Artificial Intelligence (AI) and the Case of NewsGPT platform. Yeni Medya, (16), 1-18.
- Kayıhan, B., Narin, B., Fırat, D., & Fırat, F. (2021). Algoritmalar, yapay zekâ ve makine öğrenimi ekseninde gazetecilik etiği: Uluslararası akademik dergilere yönelik bir inceleme. TRT Akademi, 6(12), 296-327.
- Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.
- Richterich, A. (2018). The big data agenda: Data ethics and critical data studies (p. 154). University of Westminster Press.
Yazar Hakkında
Doç. Dr. Bahar Kayıhan
Ankara Hacı Bayram Veli Üniversitesi İletişim Fakültesi