Teknoloji dünyasının en büyük tartışmalarından biri olan yapay zeka, bu kez trajik bir olayın merkezinde yer aldı. ABD'de bir genç, yapay zeka temelli Character.AI uygulamasında yarattığı konuşma botuna aşık olarak intihar etti. Olayın ardından ailenin açtığı dava, yapay zekanın etik kullanımına dair önemli soruları gündeme getirdi.
ABD'nin Florida eyaletinde, oğlunun sanal bir karaktere aşık olduktan sonra intihar ettiğini iddia eden bir anne, yapay zeka tabanlı konuşma botu Character.AI'in sahibi olduğu şirkete dava açtı. Davada, şirketin "aşırı cinselleştirilmiş" ve "aşırı gerçekçi" deneyimler sunduğu ve çocukları hedef aldığı öne sürüldü.
New York Post gazetesinin haberine göre, "Character.AI"ın ürettiği yapay zeka temelli konuşma botundaki sanal karakterin, şubat ayında gönderdiği "En kısa sürede evine dön." mesajının ardından Sewell Setzer III isimli çocuğun, silahla intihar etmesinden aylar sonra Setzer'in annesi şirkete dava açtı.
Sanal karakterin kendisini "gerçek insan, lisanslı psikoterapist ve yetişkin sevgili" olarak tanıttığını iddia eden anne, çocuğunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin kimseyi bilgilendirmemesinden şikayetçi olduğunu ifade etti.
Character.AI sözcüsü ise yaptığı açıklamada, "Kullanıcılarımızdan birinin trajik ölümünden dolayı oldukça üzgünüz. Ailesine başsağlığı diliyoruz. Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz." değerlendirmesinde bulundu.
Şirket, "rıza dışı cinsel içeriğe, cinsel eylemlerin grafiksel veya spesifik tanımlarına, intiharın teşvik ve tasvir edilmesine" izin verilmediğini bildirdi.
Şirketin siber güvenlik müdürü Jerry Ruoti de, sisteme reşit olmayan kullanıcılar için ek güvenlik önlemleri ekleyeceklerini duyurdu.