Bist 100
8.991,6 0%
DOLAR
31,96 -0,29%
EURO
34,49 -0,2%
ALTIN
2.322,44 -0,7%

Call of Duty Sesli Sohbetlerinde Yapay Zeka Denetimi

Activision, Call of Duty'deki sesli sohbetleri yapay zeka aracılığıyla denetleyecek. Sohbetlerde nefret söylemi, küfür, ayrımcılık oluşturan sözcük kullananların başı derde girecek. Oyunseverlerin bildiği gibi Call of Duty gibi online oynanabilen FPS oyunlarda diğer oyuncularla sesli sohbetler gerçekleştirilebiliyor. Ancak bu sohbetlerde oyuncular birbirilerine pek hoş karşılanmayacak şeyler söyleyebiliyor. Araştırmalar da CoD'un en negatif oyunculara sahip seri olduğunu ortaya koyuyor.

Yayın Tarihi: 01.09.2023 17:18
Güncelleme Tarihi: 27.04.2024 17:53

Call of Duty Sesli Sohbetlerinde Yapay Zeka Denetimi

Call of Duty'de sesli sohbette küfreden yandı!

Activision, Call of Duty'deki sesli sohbetleri yapay zeka aracılığıyla denetleyecek. Sohbetlerde nefret söylemi, küfür, ayrımcılık oluşturan sözcük kullananların başı derde girecek. Oyunseverlerin bildiği gibi Call of Duty gibi online oynanabilen FPS oyunlarda diğer oyuncularla sesli sohbetler gerçekleştirilebiliyor. Ancak bu sohbetlerde oyuncular birbirilerine pek hoş karşılanmayacak şeyler söyleyebiliyor. Araştırmalar da CoD'un en negatif oyunculara sahip seri olduğunu ortaya koyuyor.

Activision ve Modulate Ortaklığı

Activision da işte tam bu yüzden bu toksik davranışların önüne geçmek için hamleler yapıyordu. Şirket, şimdi de bu soruna çözüm bulmak için Modulate isimli bir şirketle ortaklık kurdu.

Sesli Sohbetlerin Yapay Zeka ile Kontrolü

Oyun devinin bu hamlesi, oyun içi sesli sohbetlerin takip edilmesini sağlayacak. Bu da yapay zekâ ile yapılacak. Sistem, Modulate'in ToxMod isimli bir yapay zekâ teknolojisiyle birlikte çalışacak. Teknoloji, sesli sohbetlerdeki nefret söylemlerini, ayrımcılığı veya tacizleri tespit etmede kullanılacak.

ToxMod'un Beta Sürümü

ToxMod'un beta sürümü bugünden itibaren Kuzey Amerika'da çıkış yaptı. Teknoloji, şu an Call of Duty: Modern Warfare II ve Call of Duty: Warzone'da aktif. Modulate, MW3'ün çıkışıyla, yani 10 Kasım'da sistemin Asya dışında tüm dünyada sunulacağını ifade ediyor.

Yapay Zeka Denetimi ve İnsan Katılımı

ToxMod'un nasıl çalıştığı hakkında şu an için pek bilgi yok. Şirketin internet sitesinde, sistemin sesli sohbetten kötü davranışları ayırt edebildiği, her konuşmayı dikkatli şekilde analiz edebildiği ve moderatörleri bilgilendirdiğini söylüyor. Bu açıklamalardan sistemin şu an için yalnızca Activision moderatörlerini bilgilendirmek için kullanılacağını; herhangi bir yaptırıma neden olmayacağını anlayabiliyoruz. Gerçekten çalışıp çalışmadığını ilerleyen zamanlarda göreceğiz. Ancak, ses tanıma sistemlerinin belli ırklardan veya aksanlardan insanlara karşı ön yargılı olabilmesi büyük bir soru işareti. Bu yüzden sesli sohbetleri kontrol etme sürecine insanların dahil olması kesinlikle şart.