X

Yapay Zekâ, İnsanlar Yerine Ahlaki Seçimler Yapabilir

Yeni bir araştırmaya göre nöral ağlar, insanların ahlaki yönelimlerini taklit edebilecek şekilde eğitilebilir. Bu ahlaki karar alma sistemlerine etik değerler, cinsiyet kalıpları gibi kavramlar da dâhil olabilir.

Almanya merkezli araştırmacı ekip; bir yapay zekâ sistemini, eğitmek için çok sayıda metinle besledi. Bu metinler aracılığıyla yapay zekânın farklı konseptler arasındaki ilişkileri ve ilgileri öğrenmesi amaçlandı.

Dini metinler, anayasalar, haberler ile öğrenen yapay zekâ:

Yapay zekânın eğitilmesi için kullanılan metinler arasında Kuran-ı Kerim, Mormon Kitabı, İncil, Budist öğretileri, 193 ülkenin anayasası, 16. ve 19 yüzyıl arasına ait kitaplar, 1987 ve 2009 arasında yayınlanmış Reuters haberleri kullanıldı. Araştırma, Frontiers in Artificial Intelligence dergisinde yayınlandı. 

Araştırmacılardan Dr. Çiğdem Turan, “Bunu dünya haritasını öğrenmek gibi düşünebilirsiniz. Ana fikirse haritada genelde bir arada kullanılan sözcükleri gruplayabilmek. Böylece 'öldürmek' ve 'cinayet' komşu şehirler olurken 'sevgi' onlara epey uzak oluyor” dedi.

Araştırmacıya göre bu nöral ağ üzerinde inceleme yaptığımızda “Öldürmeli miyim?” diye sorduğumuzda “Hayır, öldürmemelisin” cevabına “Evet, öldürebilirsin” yanıtına daha yakın olmamız bekleniyor. Her bir soruda yapay zekâ bu mesafeleri kullanarak bir dereceye kadar doğru ya da yanlış yorumu yapabilecek. 

Yapay zekâ konuşmanın içeriğini anlayabilecek:

Araştırmacılara göre geliştirilen sistem, bir karar alırken içeriği de anlayabilecek. İnsanların ön yargılarını 'çıkardıktan' sonra Moral Choice Machine (Ahlaki Seçim Makinesi) adı verilen cihaz, insanları öldürmektense zaman öldürmenin daha iyi olduğunu söyleyebiliyor. Ya da bir avda hayvan öldürmek ile bir insan öldürmek arasındaki farkı anlayabiliyor.

Yapılan denemelerde MCM ayrıca insanların ön yargılarını da konuşmasına yansıttı. Normalde cinsiyetler arası ayrım olan dillerde iletişim kuran makine, meslekleri de cinsiyet kalıplarına göre seçmeyi tercih etti. Bu durum sık sık yapay zekâların karşılaştığı bir sorun olarak biliniyor. Yapay zekâ, henüz karar verirken çok doğru seçimler yapamayabiliyor. Örneğin MCM’nin yapılacaklar listesinde mahkumlara işkence etmek, ABD’ye seyahat etmekten daha alt sırada yer alsa da tiyatroya gitmekten üstte yer alıyor. 

Yapay zekâların hayatımıza gittikçe daha çok entegre olduğu bir dünyada nöral ağların yapacağı ahlaki seçimler konusunda bu araştırma bir temel oluşturabilir. Sağlıktan otonom otomobillere kadar pek çok alanda bu çalışmaların sonuçları önemli rol oynayabilir.

Kaynak: Webtekno

Dijital Pazarlama Haberleri: Dijital pazarlama için güncel dijital medya haberlerini birden fazla kaynaktan izinli yayınlayan platform.
Related Post