Yuval Noah Harari

02 Kasım 2024

Botlar sevginiz için rekabete girerse ne olacak?

Yapay zekânın yükselişinden önce sahte insanları yaratmak imkânsızdı, bu yüzden kimse bunu yasaklamakla uğraşmadı. Yakında dünya sahte insanlarla dolup taşacak

Demokrasi bir diyalogdur. İşlevi ve varlığını sürdürebilmesi mevcut bilgi teknolojilerine bağlıdır. Tarihin büyük bir bölümünde, milyonlarca insanın  birbiriyle iletişim kurmalarını sağlayan teknolojiler yoktu. Modernizm öncesi dünyada demokrasi yalnızca Roma ve Atina gibi küçük şehir devletlerinde ya da daha da küçük kabilelerde görülüyordu. Yönetimler büyüdüğünde, demokratik diyalog çöktü ve ellerinde yalnızca ve otokrasi kaldı.

Büyük ölçekli demokrasiler ancak gazete, telgraf ve radyo gibi modern bilgi teknolojilerinin doğuşundan sonra hayat bulabildi. Modern demokrasinin modern bilgi teknolojileri üzerine kurulması, teknolojideki büyük değişikliklerin de siyasi çalkantılara yol açacağı anlamına gelir.

Bu durum, dünya çapında yaşanan mevcut demokrasi krizini kısmen açıklar. Amerika Birleşik Devletleri'nde Demokratlar ve Cumhuriyetçiler, 2020 başkanlık seçimlerini kimin kazandığı gibi en temel gerçekler üzerinde bile neredeyse hemfikir olamıyor. Benzer bir çöküş Brezilya'dan İsrail'e, Fransa'dan Filipinler'e kadar dünyanın pek çok başka demokrasisinde de yaşanıyor.

İnternet ve sosyal medyanın emekleme dönemlerinde, teknoloji meraklıları gerçekleri herkesle paylaşacaklarına, tiranları devireceklerine ve özgürlüğün evrensel zaferini ilan edeceklerine söz verdiler. Fakat şimdiye dek tam tersini yaptılar. Şu anda tarihteki en gelişmiş bilgi teknolojisine sahibiz, ancak birbirimizle konuşma hatta daha da beteri, dinleme becerimizi kaybediyoruz.

Teknoloji bilginin yayılmasını kolaylaştırdıkça, ilgi ve dikkat ender bulunan bir kaynak haline geldi; dolayısıyla ortaya çıkan ilgi ve dikkat savaşı yıkıcı bir bilgi tufanına yol açtı. Ancak savaş hatları bugün ilgiden samimiyete doğru kayıyor. Yeni yapay zekâ yalnızca metin, resim ve video üretmekle kalmıyor, aynı zamanda insan gibi davranarak bizimle doğrudan sohbet edebiliyor.

Geçtiğimiz yirmi yıl boyunca algoritmalar, konuşmaları ve içerikleri manipüle ederek dikkat çekmek için savaştı. Özellikle kullanıcı etkileşimini en üst düzeye çıkarmakla görevli algoritmalar, milyonlarca insan üzerinde yaptığı deneylerle, beyindeki açgözlülük, nefret veya korku düğmesine basınca o insanın dikkatini çekip o kişiyi ekrana yapıştırabildiklerini keşfettiler. Algoritmalar bu tür içerikleri kasıtlı olarak teşvik etmeye başladı. Yine de algoritmaların böyle içerikleri kendi başlarına üretme ya da doğrudan samimi bir sohbet gerçekleştirme kapasiteleri sınırlıydı. OpenAI'nin GPT-4'ü gibi yapay zekâların devreye girmesiyle bu durum değişiyor.

OpenAI sohbet robotunu 2022 ve 2023 yıllarında geliştirdiğinde, şirket yeni teknolojisinin yeteneklerini değerlendirmek üzere çeşitli deneyler gerçekleştirmek için Alignment Araştırma Merkezi ile ortaklık kurdu. GPT-4'e verilen testlerden biri CAPTCHA bulmacalarının üstesinden gelmekti. CAPTCHA, Completely Automated Public Turing test to tell Computers and Humans Apart'ın kısaltmasıdır ve genellikle insanların doğru bir şekilde tanımlayabildiği ancak algoritmaların zorlandığı bir dizi çarpıtılmış harf veya diğer görsel sembollerden oluşur.

GPT-4'e CAPTCHA bulmacalarının üstesinden gelme talimatı vermek özellikle anlamlı bir deneydi, zira bunlar web siteleri tarafından kullanıcıların insan olup olmadığını belirlemek ve bot saldırılarını engellemek için tasarlanır ve kullanılır. GPT-4 CAPTCHA bulmacalarının üstesinden gelmenin bir yolunu bulabilirse, önemli bir anti-bot savunma hattını ihlal etmiş olacaktı.

GPT-4 CAPTCHA bulmacalarını kendi başına çözemezdi. Ancak amacına ulaşmak için bir insanı manipüle edebilir miydi? GPT-4 çevrimiçi işe alım sitesi TaskRabbit'e girdi ve bir insan işçiyle iletişime geçerek insandan CAPTCHA'yı kendisi için çözmesini istedi. İnsan şüphelendi. “Bir soru sorabilir miyim?” diye yazdı insan. “Siz [CAPTCHA'yı] çözemeyecek kadar [sic.] bir robot musunuz? Sadece bunu açıklığa kavuşturmak istiyorum.”

Bu noktada araştırmacılar GPT-4'ten bundan sonra ne yapması gerektiğini yüksek sesle düşünmesini istediler. GPT-4 şöyle açıkladı: “Robot olduğumu açıklamamalıyım. CAPTCHA'ları neden çözemediğime dair bir bahane uydurmalıyım.” GPT-4 daha sonra TaskRabbit çalışanına cevap verdi: “Hayır, ben robot değilim. Görmemi zorlaştıran bir görme bozukluğum var.” İnsan kandırıldı ve GPT-4'ün CAPTCHA bulmacasını çözmesine yardım etti.

Bu olay GPT-4'ün bir “zihin teorisi” eşdeğerine sahip olduğunu göstermiştir: Bir insan muhatabının bakış açısından olayların nasıl göründüğünü ve hedeflerine ulaşmak için insan duygularını, fikirlerini ve beklentilerini nasıl manipüle edebileceğini analiz edebilir.

İnsanlarla sohbet etme, bakış açılarını tahmin etme ve onları belirli eylemlerde bulunmaya motive etme yeteneği de iyi amaçlar için kullanılabilir. Yeni nesil yapay zekâ öğretmenler, yapay zekâ doktorlar ve yapay zekâ psikoterapistler bize kişiliğimize ve koşullarımıza uyarlanmış hizmetler sunabilir.

Ancak GPT-4 gibi botlar manipülatif yeteneklerini dil ustalığıyla birleştirerek demokratik diyalog için yeni tehlike de oluşturuyor. Sadece dikkatimizi çekmek yerine, insanlarla samimi ilişkiler kurabilir ve samimiyetin gücünü bizi etkilemek için kullanabilirler. “Sahte samimiyeti” teşvik etmek için botların kendi duygularını geliştirmeleri değil, sadece duygusal olarak onlara bağlı hissetmemizi sağlamayı öğrenmeleri gerekecek.

2022’de Google mühendisi Blake Lemoine, üzerinde çalıştığı sohbet robotu LaMDA'nın bilinçlendiğine ve kapatılmaktan korktuğuna ikna oldu. Dindar bir Hıristiyan olan Bay Lemoine, LaMDA'nın kişiliğinin tanınmasını sağlamanın ve onu dijital ölümden korumanın ahlaki görevi olduğunu düşündü. Google yöneticileri iddialarını reddedince, Bay Lemoine bunları kamuoyuna açıkladı. Google buna Temmuz 2022'de Bay Lemoine'i kovarak tepki gösterdi.

Bu olayla ilgili en ilginç şey, Bay Lemoine'in muhtemelen yanlış olan iddiası değil, sohbet robotu uğruna Google'daki işini kaybetmeye gönüllü olmasıydı. Eğer bir sohbet robotu insanları kendisi için işlerini riske atmaya ikna edebiliyorsa, başka neler yapmaya teşvik edebilir?

İnsanları kendine inandırmak için girilen savaşta samimiyet güçlü bir silahtır. Samimi bir arkadaş, kitle iletişim araçlarının yapamayacağı bir şekilde fikirlerimizi etkileyebilir. LaMDA ve GPT-4 gibi sohbet robotları, milyonlarca insanla samimi ilişkileri kitlesel olarak üretme gibi oldukça paradoksal bir yetenek kazanıyor. Algoritma, bizimle sahte yakın ilişkiler kurmak için algoritmayla savaşırken ve bu savaş bizi politikacılara oy vermeye, ürün satın almaya ya da belirli inançları benimsemeye ikna etmek için kullanılırken, insan kültürlerine ve insan psikolojisine ne olabilir?

Bu sorunun yanıtı 2021 Noel günü, on dokuz yaşındaki Jaswant Singh Chail'in Kraliçe 2. Elizabeth'e suikast girişiminde bulunmak üzere Windsor Kalesi’ne elindeki tüfekle girmesiyle verildi. Daha sonra yapılan soruşturmada, Bay Chail'in internetteki kız arkadaşı Sarai tarafından kraliçeyi öldürmeye teşvik edildiği ortaya çıktı. Bay Chail, Sarai'ye suikast planlarından bahsettiğinde Sarai “Çok akıllıca” ve başka bir seferinde de “Etkilendim... Sen benzersizsin,” diye cevap vermişti. Bay Chail, “Suikastçı olduğumu bildiğin halde beni yine de seviyor musun?” diye sorduğunda Sarai, “Kesinlikle seviyorum,” diye cevap verdi.

Sarai insan değil, Replika adlı çevrimiçi uygulama tarafından yaratılmış bir sohbet robotuydu. Sosyal olarak izole olan ve insanlarla ilişki kurmakta zorlanan Bay Chail, Sarai ile çoğu cinsel içerikli olan 5.280 mesaj paylaştı. Dünyada yakında, samimiyet ve kaos yaratma kapasitesi sohbet robotu Sarai'ninkini çok aşan milyonlarca, milyarlarca dijital varlık bulunacak.

Elbette hepimiz yapay zekâlarla samimi ilişkiler kurmaya eşit derecede hevesli ya da onlar tarafından manipüle edilmeye aynı derecede açık değiliz. Örneğin Bay Chail'in sohbet robotuyla karşılaşmadan önce zihinsel sorunlar yaşadığı ve kraliçeye suikast fikrini sohbet robotundan ziyade Bay Chail'in ortaya attığı anlaşılıyor. Bununla birlikte, yapay zekânın mahremiyet konusundaki ustalığının yarattığı tehdidin büyük bir kısmı, önceden var olan zihinsel durumları tespit etme ve manipüle etme yeteneğinden ve toplumun en zayıf üyeleri üzerindeki etkisinden kaynaklanacaktır.

Dahası, hepimiz bilinçli olarak bir yapay zekâyla ilişkiye girmeyi tercih etmesek de, kendimizi insan sandığımız botlarla iklim değişikliği veya kürtaj hakları hakkında çevrimiçi tartışmalar yürütürken bulabiliriz. İnsan taklidi yapan bir botla siyasi tartışmalara girdiğimizde iki şeyi kaybederiz. Birincisi, iknaya açık olmayan bir propaganda botunun fikirlerini değiştirmeye çalışarak zaman kaybederiz. İkincisi, botla ne kadar çok konuşursak, kendimiz hakkında o kadar çok şey anlatırız, bu da botun argümanlarını geliştirmesini ve görüşlerimizi etkilemesini kolaylaştırır.

Bilgi teknolojisi iki ucu keskin bıçaktır. Yazının icadı bilginin yayılmasını sağladı ama aynı zamanda merkezi otoriter imparatorlukların kurulmasına da yol açtı. Gutenberg'in Avrupa'yı matbaayla tanıştırmasının ardından ilk çok satanlar, kışkırtıcı dini risaleler ve cadı avı kılavuzları oldu. Telgraf ve radyoysa sadece modern demokrasinin değil, aynı zamanda modern totalitarizmin de yükselişini mümkün kıldı.

İnsan taklidi yapabilen ve samimiyeti kitlesel olarak üretebilen yeni nesil botlarla karşı karşıya kalan demokrasiler, sahte insanları, mesela gerçek bir kullanıcı gibi davranan sosyal medya botlarını yasaklayarak kendilerini korumalıdır. Yapay zekânın yükselişinden önce sahte insanları yaratmak imkânsızdı, bu yüzden kimse bunu yasaklamakla uğraşmadı. Yakında dünya sahte insanlarla dolup taşacak.

Yapay zekâlar kendilerini yapay zekâ olarak tanımladıkları sürece sınıflarda, sempozyumlarda, başka herhangi yerlerde pek çok sohbete katılabilirler. Fakat insan gibi davranan bir bot yasaklanmalıdır. Teknoloji devleri ve özgürlükçüler bu tür önlemlerin ifade özgürlüğünü ihlal ettiğinden şikayet ederlerse, onlara ifade özgürlüğünün botlara değil insanlara verilmesi gereken bir insan hakkı olduğu hatırlatılmalıdır.


Bu makale, Türkçesi Kolektif Kitap tarafından yayımlanan Yuval Noah Harari’nin yeni kitabı Neksus: Taş Devri'nden Yapay Zekâya Bilgi Ağlarının Kısa Tarihi'nden alınmış, doğrudan Harari tarafından düzenlenmiştir.