Ölen Kişilerle ‘Konuşabilmenizi’ Sağlayan Yapay Zeka Ürünleri Etik mi?

Cambridge Üniversitesi’ndeki araştırmacılar, ortaya çıkan “ölümden sonraki dijital yaşam endüstrisinin” sosyal ve psikolojik zarara neden olmasını önlemek için güvenlik protokolleri tasarlama ihtiyacını vurguluyor. Kullanıcıların ölen sevdikleriyle “DeadBot (Ölü robotlar)” veya “keder robotları” aracılığıyla etkileşime girmesine olanak tanıyan yapay zeka teknolojileri, uygun standartlar olmadığında ciddi riskler oluşturuyor. Bu sohbet robotları, dijital ayak izlerini kullanarak ölen kişinin dilini ve kişiliğini simüle ederek yeni bir “ölüm sonrası varlık” sağlıyor.

Cambridge’deki Leverhulme Zekanın Geleceği Merkezi’nden yapay zeka etik uzmanları, dikkatsiz tasarımın, şirketlerin ürünlerinin reklamını yapmak için deadbot’lar kullanması veya ölü bir ebeveynin hala mevcut olduğu konusunda ısrar ederek sıkıntı yaratması gibi yüksek riskli sonuçlara yol açabileceği konusunda uyarıyor. Philosophy and Technology dergisinde yayınlanan araştırmaları, hayatta kalan aile üyelerinin ölü robotlardan istenmeyen bildirimler aldığı dijital taciz potansiyelini ve bu yapay zeka simülasyonlarıyla günlük etkileşimlerin getirdiği ezici duygusal yükü vurguluyor.

Temel kaygılar arasında, ölen yakınları yapay zekayla canlandırmanın etik sonuçları, ticari sömürü riski ve kullanıcılar üzerindeki psikolojik etki yer alıyor. Araştırmanın yazarlarından Dr. Katarzyna Nowaczyk-Basińska, merhumun onuruna öncelik verilmesinin ve mali amaçların buna zarar vermemesini sağlamanın önemini vurguluyor.

‘Project December’ ve ‘HereAfter’ gibi mevcut hizmetlerin örnekleri, kötüye kullanım potansiyelini göstermektedir. Araştırmacılar sonuçları göstermek için üç varsayımsal senaryo sunuyor:

  1. “MaNana” Senaryosu: Yetişkin bir torun, ölen büyükannesinin rızası olmadan onun ölü robotunu yaratır. Başlangıçta rahatlatıcı olan deadbot, reklamlar göndermeye başlar ve torunun, onun anısına saygısızlık ettiğini düşünmesine neden olur.
  2. “Ebeveyn Değil” Senaryosu: Ölümcül hasta bir kadın, acı çeken küçük oğluna yardım etmek için bir robottan ayrılır. Başlangıçta terapötik olan deadbot, kafa karıştırıcı tepkiler üretmeye başlar ve çocuğu rahatsız eder.
  3. “Kalma” Senaryosu: Yaşlı bir kişinin deadbot aboneliği, yetişkin bir çocuğun çok sayıda e-posta almasına ve diğerinin duygusal olarak tükenmesine, sözleşmenin şartları nedeniyle deadbot’u askıya alamamasına neden olur.

 

Araştırmacılar ana hatlarıyla şu üç önermede bulunuyor:

Tasarım Güvenliği Protokolleri: Deadbot’ların reklam yapmak veya sosyal medyada aktif bir varlık sürdürmek için kullanılması önlenmeli.

Rıza ve Şeffaflık: Verilerini paylaşan kişilerden aktif olarak rıza alın ve ölen kişinin onurunun dikkate alındığından emin olmak için yönlendirmeler yapın.

Yaş Sınırlamaları: Deadbot’lar için yaş sınırlamaları uygulayın ve kullanıcıların yapay zeka ile etkileşimde olduklarının farkında olmalarını sağlayın.

Dr. Tomasz Hollanek, DeadBot’ların onurlu bir şekilde emekliye ayırmak için dijital cenazeler gibi yöntemlere duyulan ihtiyacı vurguluyor. Çalışma, dijital ölümden sonraki yaşam hizmetlerinin, zaten zor olan bir dönemde ciddi sıkıntıya neden olmaktan kaçınmak için hem yeniden yaratılan bireylerin hem de simülasyonlarla etkileşime girenlerin haklarını ve rızasını dikkate alması gerektiği sonucuna varıyor. Duygusal kapanışı sağlamak ve istenmeyen dijital tacizleri önlemek için devre dışı bırakma protokollerine öncelik vermek çok önemlidir.

 

Kaynak: Cambridge

CEVAP VER

Please enter your comment!
Please enter your name here