Güney Kore'de bir grup araştırmacı yapay zekanın kullandığı dili dark web'de eğitmek üzere bir çalışma başlattı.
DarkBert isimli yeni bir yapay zeka modeli üzerinde çalışan araştırmacılar, bu yolla dark web'de kullanılan argo ve sokak dilini yapay zekaya öğretmeyi hedefliyor.
Independent Türkçe'nin haberine göre; İlk bakışta kötü bir gelişme olarak gözükse de araştırmacılar bu yolla yapay zekanın yasa dışı veya kötü niyetli bazı eylemler için kullanılan eş anlamlı kelimeleri öğrenebileceğini, bunun da siber suçla mücadeleye yeni boyutlar kazandırabileceğini düşünüyor.
Dark web'in Google ve benzeri arama motorları tarafından endekslenmemesi nedeniyle atılan bu adım araştırmacılar tarafından "DarkBERT: İnternetin karanlık tarafı için bir dil modeli" başlıklı bir makaleyle de detaylandırıldı.
Araştırmacılar ortaya koydukları yeni "büyük dil modelinin" daha önceki muadillerine oranla çok daha iyi sonuçlar verdiğine dikkat çekti. Önceki muadiller içinde Facebook araştırmacıları tarafından dizayn edilen RoBERTa isimli model de bulunuyor.
RoBERTa bir metnin içine bilerek gizlenen anlamları tahmin etmeye yönelik bir model üzerine geliştirilmişti.
Güney Koreli ekip DarkBERT'in fidye yazılım veya sızdırılmış gizli veri satan siteleri tespit etmek gibi bazı siber güvenlik işlemlerinde kullanabileceğini söylüyor.
Yeni modelin ayrıca dark web üzerindeki sayısız forumu gözlemleyerek yasadışı bilgi üzerindeki değişimlere güncellenebileceği ifade ediliyor.