Yapay zeka araştırmaları yapan ABD merkezli OpenAI kuruluşu, yeni geliştirdiği bir yapay zeka modelini ‘çok başarılı olduğu ve kötü niyetle kullanılabileceği’ gerekçesiyle kamuoyuna açıklamaktan vazgeçti. GPT2 isimli yapay zeka, üslup ve kalite açısından son derece zengin metinler üretebiliyor. Araştırmacılar ise bu teknolojinin yalan metinler, özellikle de yalan haberler yaymakta kullanılmasından endişelendikleri için araştırmalarının ayrıntılarını açıklamama kararı aldı.
BİR CÜMLE VERİNCE DEVAMINI YAZIYOR
San Francisco merkezli Open AI kuruluşu, Elon Musk ve Peter Thiel gibi varlıklı iş adamlarının bağışlarıyla yapay zeka araştırması yapan, kâr amacı gütmeyen bir kuruluş olarak biliniyor. Bu kurumdaki araştırmacıların son geliştirdiği GPT2 isimli yapay zekanın özellikleri ise şöyle: GPT2, temelde bir metin yazıcı. Kendisine verilen sadece birkaç sözcüğün, bir cümlenin veya bir sayfanın devamını kendisi yazıyor. Ancak bunu, önceki yapay zeka örneklerinin aksine şaşırtıcı derece uygun bir üslup, doğru bir dilbilgisi ve doğru bir bağlamla yapıyor. Paragrafın ortasında ne yazdığını unutup başka bir konuya atlamıyor; uzun cümlelerde bağlam kaybı yaşamıyor. Edebi metinlerde de, haberlerde de kalitesini koruyor.
1984’E ÇİN’DE GEÇEN SON YAZDI
Sözgelimi, George Orwell’in kült romanı 1984’ün açılış cümlesi verildiğinde, GPT2 metindeki hafif fütüristik tonu ve romancının üslubunu tespit ediyor; metnin devamını bu şekilde getiriyor ve 2045 yılında Çin’de geçen bir edebi metin ‘kaleme alıyor’.
HABER DE YAZIYOR AMA…
Aynı şekilde, GPT2’ye bir haber metninin ilk cümlesi verildiğinde, söz konusu cümlelerin bir haber olduğunu algılıyor ve haber dili ile devam ediyor. Fakat sorun şu: GPT2’nin yazdığı metinlerin içeriği doğru olmayabiliyor. Brexit hakkındaki bir haberin ilk cümlesi kendisine verildiğinde, devamını internette yayımlanmış bilgilerle bezeyebiliyor; İngiltere Başbakanı May’in sözcüsünün açıklamaları, İşçi Partisi lideri Jeremy Corbyn’in tepkisi gibi unsurlarla getiriyor. Ancak metin tutarlı, kelime haznesi epey geniş ve okuması keyifli olsa da, içerik yanlış…
OpenAI kurumundaki araştırmacılar, işte bu nedenle GPT2’nin yalan haberlerin kitlesel yayılımına yol açmasından endişe duyduklarını, böylesine düzgün metinler üretebilen bir yapay zekanın kötüye kullanılma riskinin yüksek olduğunu açıkladı. İlgili araştırma bu nedenle kamuoyu ile paylaşılmayacak.