TBMM Yapay zekâ Araştırma Komisyonu toplantısında sunum yapan ABD merkezli Yapay Zekâ ve Dijital Politika Merkezi Başkanı Merve Hickok, "Yapay zekâ sistemleri; kadınlara, yaşlılara, engellilere, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar veriyor. Yapay zekâ sistemleri, yüz tanıma sistemleri koyu tenli insanlar için halen büyük hatalar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Kontrollü ve güvenli olmadan kullanılan yapay zekâ sistemleri hasta tedavilerinde ciddi tanı farklarına yol açabiliyor" dedi.
ABD merkezli Yapay zekâ ve Dijital Politika Merkezi Başkanı Merve Hickok, TBMM Yapay zekâ Araştırma Komisyonu toplantısında sunum yaptı. Hickok, yapay zekâ sistemlerinin insan hayatının her alanına dokunduğunu ve sistemlerin kanuni çerçeveye uymaları gerektiğini söyledi. Hickok şöyle konuştu:
"Yapay zekânın vaatlerinden hepimiz yararlanmak istiyoruz; ama bunun için sistemi doğru anlamamız gerekiyor. Bunun neden önemli olduğunu göstermek için son birkaç senedir öne çıkan manşetleri bir araya getirdim. Mesela yapay zekâ sistemleri; kadınlara, yaşlılara, engellilere, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar veriyor. Yapay zekâ sistemleri, yüz tanıma sistemleri koyu tenli insanlar için halen büyük hatalar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Kontrollü ve güvenli olmadan kullanılan yapay zekâ sistemleri hasta tedavilerinde ciddi tanı farklarına yol açabiliyor. Devletlerin kullandığı bazı yapay zekâ sistemleri insanların hayatlarını altüst edebiliyor. Bunun bir örneği Hollanda'da yaşandı. Hollanda Vergi Kurumu tarafından kullanılan bir algoritma binlerce insanı, ağırlıkla göçmenleri yanlışlıkla vergi kaçakçısı olarak işaretledi. Binlerce insan bu nedenle iflas etti, aileleri parçalandı ve bu skandal sonunda Hollanda Hükümetinin de istifasına kadar gitti. Benzer skandalları ABD, Avustralya, İsveç ve Fransa'nın kamu kurumlarında da görüyoruz."
"Yapay zekâ bilincinin olmayacağını düşünüyorum"
Hickok, üretken yapay zekâ sistemlerine bakmak gerektiğini söyleyerek şu değerlendirmede bulundu:
"Mesela ChatGPT kullanıyorsanız ve bir soru soruyorsunuz, size verdiği cevap aslında sorunuzu anladığı için değil ya da verdiği cevabın sorumluluğunu, nüansını, konunun genel anlamını anladığı için değil; aslında arka planda verdiği cevap, bir sonraki kelimeyi nasıl tahmin ederim. Cümleyi çok hızlı bir şekilde oluşturuyor; ama arka planda yaptığı, o cümleyi oluşturacak kelimelere karar vermek. Örneğin, 'Bugün hava güzel' dediğinde, 'Bugün' kelimesini kullandıktan sonra, 'Hava' kelimesini, sonra, 'Güzel' kelimesini tek tek tahmin ederek yapıyor. Sistem verdiği cevabın anlamını, sonuçlarını ya da konunun genel anlamını biz insanlar gibi anlayabilecek bir noktada değil. Halihazırdaki en gelişmiş yapay zekâ mimarisi; OpenAl, DeepSeek, Claude tüm bunların hepsi benzer teknolojileri kullanıyor ve bir sonraki kelimeyi tahmin ediyorlar. O yüzden bilinçleri yok; ama çok hızlı bir şekilde cevap verdikleri için ve büyük veri setlerini kullandıkları için anlıyormuş gibi cevap veriyorlar. Çok ciddi kapasiteye sahipler; ama ben şahsen yapay zekânın, şu andaki mimariyle, teknik yaklaşımlarıyla bilincinin olmayacağını düşünüyorum."
"Bu sistemler yasaklansın"
Bazı yapay zekâ sistemlerinin yasaklanması gerektiğini aktaran Hickok, bu sistemlerin; insanların yüz, göz, parmak, yürüyüş şekli veya politik, sosyoekonomik, dini ya da kimlikleri ile ilgili kararlar verebildiğini kaydetti. Hickok şöyle konuştu:
"Bunun en bilinen uygulaması Çin'in Uygur vatandaşları üzerinde kullandığı, 'Biometric categorisation' sistemleri. Yüz ve hareket verilerine bakarak, 'Uygur mudur değil midir', 'Tehlikeli midir değil midir', 'Çin'e karşı mıdır değil midir', 'Politik düşüncesi nedir' gibi, bu tarz kararlar veren sistemler var. Biz bunun yasaklanması gereken bir sistem olduğunu düşünüyoruz. Benzer şekilde, 'Emotion analysis' dediğimiz; yüz ve fiziksel verilerinize bakarak sinirli misiniz, agresif misiniz, mutlu musunuz, aklınıza gelebilecek herhangi bir duyguyu analiz etmeye çalışan sistemler var. Her iki sistem, bilimsel bazlı olmayan sistemler. Tamamen şirketlerin ya da devletlerin kötü niyetle kullanılabileceği, insanları baskı altında tutmak için kullanabileceği sistemler. Mesela biz senelerdir, 'Bu sistemler yasaklansın' diyoruz. Avrupa Birliği, bu iki sistemi yasakladı ve ciddi şekilde engelledi. Benzer şekilde, Birleşmiş Milletler Eğitim, Bilim ve Kültür Teşkilatı (UNESCO) tavsiyelerine baktığımızda aynı yasaklar öne plana çıkıyor. Eğer 4-5 sene önce bize, 'Yasaklar hakkında uluslararası bir konsensüs olacak mı?' diye sorsaydınız, 'Hayır' derdik; ama insanlar yapay zekâ sistemlerinin negatif etkilerini, şirketlerin ve bazı ülkelerin bunları nasıl kötü amaçlı kullanabileceğini görüyor. O yüzden, şimdi bu yasaklarla ilgili daha fazla ortak anlayış var." (DHA)
“Maddenin doğasının algılarımızla çelişiyor gibi görünmesi insanları rahatsız ediyor” |
Günün öne çıkan haberleri...TIKLAYIN - Donald Trump, yarın Putin'le görüşeceğini açıkladı TIKLAYIN - THY çalışanı uçağın bagaj bölümünde unutuldu, donmak üzereyken bulundu! TIKLAYIN - Kulis: AKP’nin Ekrem-Mansur denklemi ve 4 aşamalı planı TIKLAYIN - Kocaeli'deki fabrikada toplu iş sözleşmesi; en düşük işçi maaşı 100 bin TL'yi geçti! TIKLAYIN - Spor yazarları, Fenerbahçe-Samsunspor maçını yorumladı: "Şampiyonluğa veda maçı..." TIKLAYIN - CHP’nin ön seçim sandıkları Yüksek Seçim Kurulu’ndan |