İngiltere'deki Cardiff Üniversitesi ile ABD'de bulunan Massachusetts Teknoloji Enstitüsü'nden (MİT) bir grup bilim insanı robotların birbirlerini nasıl tanımladıklarını test ettikleri bir çalışmaya imza attılar.
Bilgisayar bilimcileri, yapay zeka uzmanları ve psikologlardan oluşan ekip, aynı zamanda robotların birbirlerinden bazı ‘davranışları' nasıl öğrendiklerini ve kopyaladıklarını da araştırdı.
Scientific Reports dergisinde yayımlanan çalışma, sanal gerçeklik robotlarının kendi gruplarını oluşturarak diğerler robotlardan uzak durduklarını ortaya koydu. Deney, robotların bağışta bulunacakları robotu seçtikleri bir "ver-al" sistemi simülasyonuna dayanılarak yapıldı.
'DIŞARIDAN GELENLERİ KABUL ETMİYORLAR'
Kendilerine yarar sağlamak için diğerlerinden bağış stratejilerini kopyalayarak öğrenen robotların, küçük gruplar halinde yalnızca birbirlerine bağışta bulundukları ve ‘dışarıdan gelenleri' kabul etmedikleri belirlendi.
Araştırmanın yazarlarından Prof. Dr. Roger Whitaker, simülasyonları binlerce kez çalıştırarak, önyargının nasıl geliştiğini ve bunu teşvik eden ya da engelleyen koşulları anlamaya başladıklarını söyledi.
Whitaker "Simülasyonlarımız, önyargının sanal topluluklarda, ötekini de içeren daha geniş bağlantılar kurulmasına zarar vermek için kolaylıkla teşvik edilebileceğini gösteriyor" dedi.
Bilim adamı, robotlar birbirlerinin davranışlarını kopyaladıkları için önyargılı grupların aslında ‘öteki' olanlara kendi gruplarını oluşturmaları için öncülük ettiklerini ve böylelikle bölünmüş bir popülasyona yol açtıklarını da sözlerine ekledi.
‘ÖNYARGI FAZLA ZİHİNSEL GÜÇ GEREKTİRMİYOR'
Önyargıları tersine çevirmenin güçlüğüne dikkat çeken bilim insanları, bu tür davranışların öğrenilmesinin çok fazla zihinsel güç gerektirmediğinin çalışmada ortaya çıktığını vurguladılar.
Projede yer alan araştırmacılara göre, robotlar yaygınlaştıkça bazı insanların sahip olduğu ırkçılık, cinsiyetçilik gibi ortak önyargıları benimseyebilirler.
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.