12 Ocak 2025

Yapay Zekâ Aldatmacası: Bir kitap incelemesi

Unutmayın, yapay zekâ mucizeler yaratmaz; doğru kullanıldığında hayatımızı kolaylaştırabilir, ancak yanlış kullanıldığında ciddi zararlar doğurabilir

Yapay zekâ ifadesi oldukça süslü bir ifade, özellikle bugünlerde. Sosyal medyada karşımıza çıkan videolardaki gibi bir yemeğin üstüne atılan bir parça maydanozun o yemeğin fiyatını üçe katlaması misali yapay zekâ da kendisinden sonra gelen kavramın değerini o kadar belki de daha çok arttırıyor. Hele hele bulutlarla arasında 20 santimetre kalmış, halıflex döşemeli ofis ve gökdelenlerdeki şirketlerde, ülke fark etmeksizin, yapay zekâ furyası aldı başını gidiyor. Tabii sosyal medya da furyayı iyice körüklüyor. Bol takipçili bir finans profesörü geçenlerde 4 sene sonra insanlığın çoğuna gerek kalmayacak, yapay zekâ bir üst aşamaya çıkacak gibi “absürt” bir iddiasını paylaştı.

AMA, buraya büyük bir ama koyalım. (Az önce bahsettiğim hocamızın gönderileri gibi, sanırım böyle yaparsam daha çok dikkat çekebilir.)  Gerçekten öyle mi? Yapay zekâ tüm problemlerde başarılı sonuç veren, tüm işleri kısa bir gelecekte otomatize eden ürünlerin üretilmesini sağlayacak mı?

Türkiye’de araştırdığım kadarıyla henüz çevirisi olmayan, dolayısıyla pek popüler olmayan, bir kitap yayınlandı geçtiğimiz senenin Eylül ayında. Princeton Üniversitesi bilgisayar mühendisliği bölümünden Profesör Arvind Narayanan’ın yine aynı üniversite ve bölümde doktora öğrencisi olan Sayash Kapoor ile beraber yazdığı AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference. (Yapay Zekâ Aldatmacası: Yapay zekâ ne yapabilir, ne yapamaz ve fark nasıl anlatılır) isimli kitap, ilk paragrafta bahsettiğim yapay zekânın olduğundan fazla abartıldığı durumlara dair güçlü bir argümanlar sunuyor ve reklamı yapılan kadar etkili olmayan ve hatta zararlı olabilecek yapay zekâ ürünlerine dikkat çekiyor. Bu argümanları ortaya koyanlar direkt olarak bu konuda yıllar harcamış araştırmacılar olunca elbette, “kimi popüler” figürlere göre daha fazla kulak kabartarak dinlemek gerekiyor, bence.

Bu yazıda, kısaca bu kitaptan bahsedeceğim ve (araştırdığım kadarıyla) AI Snake Oil kitabıyla ilgili yazılan ilk Türkçe içerik bu yazı olacak. (Kitabı mutlaka bir şekilde okumanızı öneririm, yayın evlerinin de çevirmesini elbette. Teknik çevirmen arayan yayın evlerine de gönüllü destek sağlayabilirim.)

Narayanan ve Kapoor, AI Snake Oil (Yapay zekâ aldatmacası) ifadesini vaat ettiği gibi çalışmayan ve çalışamayacak olan yapay zekâ olarak tanımlıyor ve gerçek hayattan örneklerle de günümüzde birçok yapay zekâ uygulamasının, özellikle tahminleyici yapay alanında, gerçekte olduğundan daha yetenekli olarak pazarlandığını savunuyor.

Kitap yapay zekâyı üç başlıkta inceliyor. Üretken yapay zekâ (Generative AI), Otomatikleştirilmiş karar verici yapay zekâ (automated decision-making AI) ve tahminleyici yapay zekâ (predictive AI).

Yazarlar ilk kategori içine giren üretken yapay zekâ uygulamalarının (Yüz tanıma modelleri, büyük dil modelleri ve konuşmayı sese çeviren modeller gibi) en başarılı yapay zekâ uygulamaları olduğunu ve bunların kimilerinin insan performansıyla yarışabilecek durumda olduğunu ifade ediyor. Ancak bu modeller elbette kusursuz değil ve altında büyük tehlike ve sorgulamalar içeriyor. Bu modellerin eğitildiği verilerin çoğunlukla internetten toplanan veriler olması kullanıcıların sorgulaması gereken bir şeffaflık ve aynı zamanda telif hakkı problemini de beraberinde getiriyor. Yine bu modellerin deepfake, sahte haberler ve ayrımcı içerik gibi neden olabileceği potansiyel tehlikelere de dikkat çekiliyor.

Bu modellerin eğitildiği verilerdeki önyargı ya da taraflılığı (bias) yansıtması da bir başka sorun olarak karşımıza çıkıyor. Örneğin, bir iş sitesi için profil resmi oluşturmak amacıyla yüklediğiniz resimde cildinizin normalden daha fazla parlak olmasının nedeni, o modelin eğitimi sırasında kullanılan fotoğrafların çoğunun parlak ciltli kişilerin fotoğraflarından oluşması gibi. Bu en basit örneği siz istediğiniz yere uyarlayabilirsiniz tabii, dolayısıyla bu taraflılığın daha geniş bir bağlamda toplumsal eşitsizliği ve ayrımcılığı artırabilecek bir tehlike oluşturduğundan bahsediyor Narayanan ve Kapoor.

İkinci grup olan otomatikleştirilmiş yapay zekâ modelleri (sohbet modelleri, öneri sistemleri) yazarlara göre üretken yapay zekâ kadar harika değil, ama umut verici. Ancak bu modeller kolay görevler için faydalı bir şekilde çalışsa da, zor durumlarda oldukça başarısız sonuçlar üretebiliyor ve senaryolara bağlı olarak bu sonuçların etkisi de büyük olabiliyor. Kitaptaki örneklerden biri olan UnitedHealth isimli bir sigorta şirketi, hasta bakımıyla ilgili kararları otomatikleştirmek için bir yapay zekâ kullanmış, ancak bu modelin %90'dan fazla hata oranına sahip olduğu tespit edilmiş. Buna rağmen, UnitedHealth çalışanlarını, işten çıkarılma tehdidi altında, yapay zekânın kararlarıyla aynı fikirde olmaya zorlamış, doğru olmadığı bilindiği halde. Yine Amerika’da Ulusal Yeme Bozuklukları Derneği (NEDA), yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine bir sohbet botu (chatbot) yerleştirmiş, ancak bu bot belli bir süre sonra kullanıcılara tehlikeli tavsiyelerde bulunmaya başlamış.

Buraya kadar “başarılı” olarak görülen yapay zekâ modellerinin başarısızlığından bahsettik. Şimdi ise, benim de araştırma alanım olan, ancak içten içe bu kitabın söylediği argümanlara da inanan ve bunları da deneyimleyen, fakat buna rağmen araştırmaktan keyif aldığım alana geldik ki bu alan yazarlarımız Narayanan ve Kapoor’un en acımasızca eleştirdiği alan; tahminleyici yapay zekâ (predictive AI).

Tahminleyici yapay zekâ kısaca, belirli girdiler üzerinden, hedef bir değişkeni tahmin etmeye çalışan algoritmaların genel bir adı. Bu algoritmalar geçmişteki verileri ve örüntüleri kullanarak geleceği tahmin etmeye çalışırlar. Örneğin, CHP’nin bir sonraki seçim sonucunu, geçmiş seçim sonuçları, enflasyon, yıllık gelir gibi değişkenler yardımıyla tahmin etmek bir tahminleyici yapay zekâ uygulamasının örneğidir. Okuyucuların kolay anlayabilmesi için popüler bir örnek kullanmak istedim, ama bu tür yapay zekâ uygulamaları daha geniş bir uygulama alanına sahip ve aldatmacanın da en fazla olduğu yapay zekâ türü aslında.

Kitap, Amerika’daki şirketlerin yüzde 75’inin işe alımlar öncesi, adayları değerlendiren yapay zekâ kullandığını ancak bu modellerin çoğunun başarısız olduğunu, aslında “random number generation” (rastgele sayı üreten) modeller olduğunu söylüyor. Üstelik bu modeller adaylar tarafından çeşitli yollarla kandırılmaya da müsaitler. Örneğin CV’lerine beyaz renkli fontlarla bazı kilit kelimeler eklemek, ya da video mülakatında görüntülerde belirli efektler kullanmak gibi. Bu tarz modellerin başarısız olduğu ve kitapta yer alan başka bir örnek ise Cezai Suçlu Yönetimi Profil Oluşturma ifadesinin kısaltması olan COMPAS isimli model. Bu modelin, Amerika’da sınıflar ve ırklar arası ayrım yaptığı ve bu kriterlere göre yanıltıcı suç skorları ürettiği görülmüş.

Kitapta elbette çok daha fazla örnek var, ancak bahsedeceğim son örnek benim de çok eleştirdiğim bir durumun tezahürü. Princeton Üniveristesi tarafından yine organize edilen Fragile Families and Child Wellbeing Study (Kırılgan aile ve çocuk iyi olma çalışması) isimli bir modelleme yarışmasında, katılımcılardan ABD'deki 20 büyük şehirde doğan yaklaşık 5.000 çocuğun gelişimini takip eden bir veri kullanarak, aile yapısı, sosyoekonomik faktörler ve çocukların refahı arasındaki ilişkiyi incelemeyi amaçlayan bir yapay zekâ modeli geliştirmeleri istenmiş. 160 farklı takımın sonuçlarını yüklediği bu yarışmanın sonunda içinde 13000 değişken barındıran veri setinden hiçbirinin modelleri kıyaslamak için geliştirilen ve sadece 4 değişkenden oluşan basit bir regresyon modeline karşı baskın bir sonuç geliştirmediği görülmüş. Hatta öyle ki en iyi modelin başarısı rastgele tahminden (yüzde 50 başarı) biraz daha iyi olarak değerlendirilmiş.

Tüm bu örneklerin ortak noktası ve dolayısıyla da kitabın temel mesajı, yapay zekâ teknolojisinin sıklıkla abartıldığı ve gerçekte yapabileceklerinden çok daha fazlasını vaat ederek sunulduğu.

Yapay zekâ sistemleri, her ne kadar tarafsız olarak iddia edilse de her zaman tarafsız değildir, çünkü eğitildikleri verilerdeki ön yargıları yansıtırlar ki bu da ayrımcılık ve adaletsizliğe giden taşları döşeyebilir. Keza bu modeller her zaman doğru sonuç vermez çünkü insan davranışı karmaşık ve tahmin edilemezdir. Sistemlerin otomasyonu her zaman iyi bir çözüm değildir. İş kaybı, etik kaygılar ve hesap verebilirlik eksikliği gibi önemli dezavantajları da beraberinde getirebilir.

Narayanan ve Kapoor, okuyucularını yapay zekâ sistemlerinin sunduğu vaatlere karşı eleştirel düşünmeye ve bu sistemlerin potansiyel zararlarının farkında olmaya çağırıyor, insan önyargılarını ve toplumsal eşitsizlikleri güçlendirebileceği konusunda uyarıda bulunuyor, tıpkı benim bu köşeden elimden geldiğince yaptığım gibi.

Yapay zekâ hakkında daha bilinçli bir anlayış geliştirmek ve bunu yaymak zorundayız.  Bu fenomenin toplumsal etkilerine dair daha bilinçli bir kamuoyu ve bu teknolojinin etik ve sorumlu bir şekilde geliştirilmesini ve kullanılmasını sağlayacak daha güçlü düzenlemeler için çağrıda bulunmalıyız.

Bu konuda da görev en başta Narayanan ve Kapoor gibi bu alanda çalışan biz araştırmacılara düşüyor. Kamuoyunu bilgilendirecek profillerin uzman araştırmacılar olması gerekiyor, alan tecrübesi olmayan yüksek takipçili profesörler ya da sentetik profil fotoğraflı sosyal medya hesapları değil, çünkü teknoloji dünyasında "yapay zekâ aldatmacası"nın farkına varmak, hem bireysel hem de toplumsal olarak daha bilinçli kararlar almamıza yardımcı olabilir. Unutmayın, yapay zekâ mucizeler yaratmaz; doğru kullanıldığında hayatımızı kolaylaştırabilir, ancak yanlış kullanıldığında ciddi zararlar doğurabilir.

Ozancan Özdemir kimdir?

Ozancan Özdemir, lisans ve yüksek lisans derecelerini ODTÜ İstatistik Bölümü'nden aldı. Yüksek lisans döneminde aynı zamanda Anadolu Üniversitesi yerel yönetimler bölümünden mezun oldu.

Bir süre ODTÜ İstatistik Bölümü'nde araştırma görevlisi olarak çalışan Özdemir, şu günlerde Groningen Üniversitesi Bernoulli Enstitüsü'nde finans ve yapay zekâ alanındaki doktora çalışmalarını sürdürüyor.

Pandemi döneminde bir grup öğrenciyle birlikte gönüllü bir oluşum olan VeriPie adlı güncel veri gazetesini kurdu.

Araştırma alanları yapay öğrenme ve derin öğrenme uygulamaları, zaman serisi analizi ve veri görselleştirme olan Ozancan Özdemir, ayrıca yerel yönetimler ve veriye dayalı politika geliştirme konularında da çeşitli platformlarda yazılar yazmaktadır.

Yazarın Diğer Yazıları

2025’e girerken yapay zekâya dair bilinmesi gerekenler son gelişmeler

Bilim ve tıp alanındaki atılımlar, yapay zekânın sağlık çalışanlarına büyük faydalar getirebileceğine dair emareler sunarken bir yandan buradaki verilerin nasıl ve ne şekilde kullanılacağının henüz bilinmemesi belirsizliğini de unutmamak gerekiyor

Bizim büyük çaresizliğimiz: Bir asgari ücret hikâyesi

Türkiye’de emekçi kesim çok çalışıyor, ortalama neredeyse asgari ücret kazanıyor ama bu asgari ücret değil ev geçindirmeye çoğunlukla 4 kişilik bir ailenin aylık gıda masraflarını karşılamaya yetmiyor

Türkiye’nin 2024’teki yapay zekâ algısı: Umutlar, endişeler ve geleceğe bakış

Türkiye’deki güçlü ilgi ve yüksek beklenti, yapay zekânın ülke genelinde benimsenmesi için büyük bir fırsat sunuyor. Ancak bu dönüşümün yalnızca heyecan verici yönlerine odaklanmak, kuşkular ve yanlış anlamaların gölgede kalmasına yol açabilir

"
"