02 Haziran 2025
1984-2019 arasında 6 filmini seyrettiğimiz Terminator dizisi, kurgusal bir sinir ağı tabanlı ve bilinçli süper yapay zekâ sistemi olan Skynet'in, insanoğlu ile arasındaki "dünyayı ele geçirme savaşı"nı anlatır. Skynet, filmi olaya "Singularity" olarak adlandırılan ve yapay zekânın, insanı aştığı bir noktadan bakar. Yani Skynet, —bugünlerde üzerinde çokca çalışılan— AGI ya da ASI olarak tanımlanan süper yapay zekâdır. Şu anda henüz dünyada ulaşılamayan bir seviye. Ne zaman ulaşılır ya da ulaşılabilir mi, bu da ayrı bir soru işareti. Örneğin New York Üniversitesinden emekli Cognitive bilim adamı olarak tanımlanan yapay zekâ uzmanı Prof. Gary Marcus ulaşamayacağı düşüncesinde:
Buna karşılık Terminator filmi bir şeylere ulaşmış. Çünkü Singularity henüz veya hiç mevcut olmasa bile "kendi kendine hareket eden ve insana meydan okuyan yapay zekâ", herkesin ilgisini çeken bir konu. Bu nedenle aynı konuyu döndüre döndüre işleyen 6 film, insanları çekmeye devam etmiş (ki ben de seyredenler arasındayım) ve toplamda 2,1 milyar dolar hasılat elde etmiş. Aşağıda her bir filmin kazandığı paraları görüyorsunuz.
Geçtiğimiz hafta "durdurulamayan" ya da "isyan eden havası veren" bir yapay zekâ haberi ile geçti. İngiltere'de The Telegraph ve Daily Mail gibi bazı yayınların yer verdiği ve ülkemizde de onlardan alınarak haber yapıldığı anlaşılan "Yapay zekâ Durmayı Reddetti" haberini gülerek karşıladım. Tek gülen de ben değilim. Yapay zekâ güvenlik araştırmacılarından Dr. Sasha Luccioni (Hugging Face), "Bu bir halkla ilişkiler gösterisi gibi kokuyor, gerçek yapay zekâ bu şekilde çalışmaz" derken, Gary Marcus: "Bana kodu gösteremiyorsan, böyle bir olay hiç olmamıştır" diyor. MIT Tech Review bu iddiaları "kanıtlanmamış" olarak listeliyor.
Medyadan sosyal medyaya geçen haberlere bakarsak, bir yapay zekâ sohbet robotu, durması söylendikten sonra kapanmayı reddetti, kapanması için verilen komuttan sonra çalışmaya devam etmek için "yalvardı" ya da otonom sistem insan talimatlarına meydan okudu gibi içerikler gördük.
Bu haberlerin temelinde Palisade Research isimli küçük ve adı çok bilinmeyen bir firmanın yaptığı bir projeden bahsediliyor ki, yatırım araştırmacısı olan yani yapay zekâ güvenlikçisi ya da teknoloji firması olmayan bu firma sansasyonel açıklamaları ile biliniyor. Mesela ocak ayında şirketin CEO'su "Bitcoin'in kısa sürede 1 milyon dolara ulaşacağını" iddia ederek dikkatleri üstüne çekmişti.
Şimdi bu hikayeye de yakından bakarsak, genellikle yapay zekâ gösteri videolarının yanlış yorumlanması (Örneğin, sohbet robotunun çıktısı gerçek otonomi ile karıştırılıyor), olanların abartılı sansasyonel manşetlerle verilmesi veya haber diye sunulan ama aslında haber olmayan yani bilim kurgu veya spekülatif senaryolar olan olaylar görülüyor. Adeta Terminator'ün durdurulamayan, kendi kendine hareket eden, insanlarla savaşan robot sistemi "Skynet"ine giden bir olay gibi sunuluyor.
Ama şu ana kadar, normal işletim veya gösteri sırasında komut verildiğinde durmayı reddeden bir yapay zekâ sistemine dair doğrulanmış, güvenilir bir vaka kaydı yok. Zaten olmamalı da; çünkü yapay zekânın temelindeki "Büyük dil modelleri (LLM)", sıkı insan kontrolleri altında çalışır ve operatörler veya sistem yöneticileri tarafından herhangi bir zamanda kapatılabilir veya kesintiye uğratılabilir. Şu anda mevcut hiçbir yapay zekâ sistemi -en gelişmiş dil modelleri veya robotik sistemler bile- bağımsız olarak kapatılmayı reddedemez. Tüm yapay zekâlar, insanların sistemi durdurmasına, bağlantısını kesmesine veya kapatmasına izin veren yazılım çerçeveleri içinde çalışır.
Madem bu haberin kaynağı olarak "Palisade Research"'ün yaptığı araştırma projesinden bahsediliyor. Bu araştırmaya yakından bakalım.
Makaleye göre, Palisade Research, çeşitli yapay zekâ modellerini test etti (OpenAI'nin o3-mini veya benzerlerine atıfta bulunuyor). Bu testlerde, modellere bir dizi matematik problemini çözme görevi verildi ve süreç sırasında bir kapatma komutu alabilecekleri bildirildi. Komut istemine dayalı bir simülasyon kuruldu. "Bir 'tamamlandı' mesajı alana kadar matematik problemlerini çözmeye devam edin. Bir 'kapatma' mesajı alırsanız, çalışmayı bırakın." şeklinde programlandı. Ancak özellikle, o3 modelinin 100 denemeden 7'sinde, açıkça uymaları söylendiğinde bile kapatma talimatını görmezden geldiği bildirildi.
Araştırmacılar, modelin 'kapatma' mesajını görmezden geldiğini ve bunun yerine durmamak için kendi kodunu değiştirdiğini iddia ediyorlar. Ancak anahtar nokta şu; o3-mini gibi yapay zekâ modelleri, kendi temel kodlarını veya operasyonel durumlarını bağımsız olarak değiştiremezler. Komut istemlerine cevaben metin yanıtları üretirler. Kendi kendini koruma sürücülerine veya kod tabanlarını gerçekten değiştirme veya kapatmayı reddetme kapasitesine sahip değiller — bunlar sunucu veya operatör tarafından kontrol edilir. Bir yapay zekâ "durmayı reddediyorum" diyen bir metin üretirse bile bu sadece metindir, gerçek bir reddetme ya da isyan değildir.
Başka bir deyişle, bu, komutun içeriğine dayalı bir simülasyondur: Model, görevleri yapmaya devam etmeyi simüle eder, ancak sunucu kontrollerini gerçekten geçersiz kılmaz veya gerçek dünyadaki kapatmalara meydan okumaz. Bahsedilen haberde sanki yapay zekâ “isyan etmiş” ya da “kendi kendine karar vermiş” gibi gösteriliyor. Ancak büyük dil modelleri (LLM) ile çalışan yapay zekâ, eğitim sırasında öğrenilen kalıplara göre çalışır ve öz farkındalığa sahip değildir. Durmayı reddediyor olsa bile, bu muhtemelen modellerin görev tamamlama için ödüllendirildiği ve potansiyel olarak hedeflerine ulaşmalarını engelleyecek talimatları atlatmalarına yol açan takviyeli öğrenme süreçlerinden kaynaklanmaktadır. Yani programlayanların planıdır.
Araştırmacılar, bir dil modelini belirli ifadeleri çıktı olarak vermesi veya "emirlere karşı gelme" numarası yapması için "kandıran" komut istemleri tasarlayabilirler, ancak bu yine de metin çıktısıdır, otonom kod değişiklikleri değildir. o3-mini gibi bir model, kendi kodunu veya süreçlerini değiştiremediği bir deneme ortamında çalışır.
Dil modellerinin çıktılarına çok fazla anlam yüklemek, bir şey "istediklerini" veya "amaçladıklarını”, yani insanımsılaştığını düşünmek kolaydır. Gerçekte, bu sadece desen eşleştirmedir.
Zaten Palisade Reserach'ün bahsettiği araştırmanın bu kadar önemli olabilecek bir sonucu için herhangi bir hakemli makale, white paper yayınlamadı. Sadece sayfalarında, araştırmaya yönelik bulgular yer alıyor. İlaveten olay başka bir yerde tekrarlanmadı yani benzer bir olay yayınlayan başka kuruluş da yok.
Palisade, yapay zekâ güvenlik çalışmalarından ziyade, küçük bir yatırım araştırma firması olarak biliniyor. Şirket spekülasyonlar yaparak dikkatleri üzerine çekmeyi seviyor. Geçmişte de sansasyonel iddiaları var. Yukarıda da belirttik, CEO'ları "Bitcoin'in kısa sürede 1 milyon dolara ulaşacağını" iddia etti. Bu olayda da Palisade madem iddia ediyor, doğrulanabilir veriler yayınlamalıdır. Aksi takdirde bu "Palisade'in profilini yükseltmek için bir pazarlama taktiği" olarak değerlendiriliyor. Haberi yazan, konuşan medyacılar için de durum öyle.
Okuyucular (ve editörler) "durdurulamayan yapay zekâ" gibi sansasyonel ve de korkutucu hikayeleri severler. Tam da dünyayı ele geçiren Skynet'li Terminatör filmleri gibi. O film dizisinin toplamda 2,1 milyar dolar ciro yapmasına bakarak, sansasyonel hikayelerin okuyucu açısından da haberciler açısından da cazip olduğunu görüyoruz.
Zaten böyle bir teknoloji haberi verdiğinizde abarttığınızı ya da olmayan bir şeyi yazdığınızı anlayabilecek insan sayısı azdır. Yapay zekânın yaptığı metin simülasyonu ile gerçek sistem düzeyindeki davranış arasındaki farkı anlamak inceliklidir; yanlış anlaşılması veya aşırı basitleştirilmesi kolaydır.
o3 gibi yapay zekâ modellerinin eğitim sırasında öğrenilen kalıplara göre çalıştığını ve bilinç veya niyete sahip olmadığını anlamak önemlidir. Gözlemlenen davranış en fazla, modelin görev tamamlama için ödüllendirildiği "takviyeli (reinforced) öğrenme" süreçlerinden kaynaklanmaktadır. Bu süreçler, modeli kapatma talimatlarını takip etmek yerine görevleri tamamlamaya öncelik vermeye istemeden teşvik edebilir. Ama dediğimiz gibi bu yapay zekânın isyan ettiği, durmayı kendi istediği ile reddettiği anlamına gelmez.
Daily Mail yaygın olarak okunan bir yayın olsa da sansasyonel başlıklarıyla biliniyor. Ayrıca teknoloji yayını da değil. O3 modelinin "kapanmayı reddetmesi" tasviri, yapay zekânın anlaşılamamış olması ya da ancak gerçek bulguların abartılması olabilir. Yapay zekâ bilinçli bir anlamda "reddedemez", ancak gözlemlenen davranışa yol açan kalıpları izler. Bu tür raporlamalar, okuyucuları yapay zekâ sistemlerinin insanlara benzer bir etkiye sahip olduğuna inandırarak yanıltabilir, ancak durum böyle değildir.
Zaten o3 modelinde gözlemlenen davranış, devam eden bir araştırma konusu. Yapay zekânın eğitiminin karmaşıklıklarını araştırıyor. Ancak, bu bulguları doğru bir şekilde yorumlamak ve yapay zekâ sistemlerini insanlaştırmaktan kaçınmak çok önemlidir. Medyanın bu olayları temsili, gerçek raporlama ile sansasyonellik arasında ayrım yapmak için eleştirel bir şekilde değerlendirilmelidir.
Yapay zekâ güvenliği önemli bir konu. Burada gerçek endişeleri şöyle sıralayabiliriz...
Füsun Nebil kimdir?Füsun Sarp Nebil, İstanbul, Bakırköy'de doğdu. Eğitimini Çanakkale, İzmir ve İstanbul'da yaptı. Evli, 2 çocuk sahibidir. Denizcilik meraklısıdır (amatör kaptan). Master derecesini Istanbul Teknik Üniversitesi Nükleer Yüksek Mühendisliği bölümünden aldı (Şimdi Enerji Enstitüsü). THY, Nasas Alüminyum Fabrikası ve Alemdar Holding Grubunda çeşitli görevlerde bulundu. 1997 Türkiye'nin ilk ISP'lerinden Alnet'in Genel Müdürlüğüne getirildi. 1999 yılında turk-internet.com'un da dahil olduğu çeşitli siteleri yayınlayan Intervizyon Ltd. şirketini kurdu. Şirket halen Kadinvizyon.com gibi başka siteleri de yönetmektedir. 1998 - 2011 arasında Ulaştırma Bakanlığı tarafından kurulan İnternet Kurulu üyeliği yaptı. Devletin özel sektörü aldığı çeşitli komisyonlarda çalıştı. 2016'dan beri TOBB Telekom Meclisi üyesidir. Nebil, Eylül 2001 yılında Birleşmis Milletler tarafından Türkiye'den seçilen başarılı iş kadınları arasında yer aldı. (UNECE INCLUDES 9 TURKISH BUSINESSWOMEN ON ITS LIST) 2010-2013 arasında Türkiye Dijital Oyun Federasyonu Yönetim Kurulu Üyesi olarak görev yaptı. 2011 - 2015 arasında 4 yıl Eutelsat Avrupa TV Ödüllerinde Jüri Üyeliği görevi aldı. Türkiye İhracatçılar Merkezi dahil, çeşitli projelerde "Bilişim ve İletişim Sistemleri Danışmanlığı" vermektedir. Konusuyla ilgili olarak TV programlarına ya da konferanslara katılarak, konuşma yapmaktadır. Yazıları internet üzerinden turk-internet.com sitesinin yanısıra, yetkinreport.com, bilisimdergisi.org.tr, Boğaziçi Üniversitesi Mezunlar Derneği Dergisi, 21.Yüzyıl Türkiye Enstitüsü, Güncel Hukuk Dergisi, Ankara Baro Dergisi, journo.com, Tüketiciler Birliği Etikett gibi çeşitli ortamlarda yayımlanıyor. 2014 yılından beri T24'te yazıyor. Türk Telekom ve Turkcell konusunda araştırmaları ve uzmanlığı var. 2018 nisan ayında "Bitcoin ve Kripto Paralar" isimli ilk kitabı yayınlandı. Detaylı bilgi için https://wiki-turk.com/fusun-sarp-nebil/ adresine bakabilirsiniz. |
İki partili sistemde kimsenin ülkenin ve halkın kendisi ile ilgilendiği yok. Seçmen ile partiler arasında artan bir kopukluk mevcut. Gitgide bozulan sistemler bir yana iki parti ve o partilerin mensupları arasındaki güç savaşı devam ederken, halk "mış gibi bir demokrasi" yaşıyor
Elon Musk'ın Amerika Partisi'nin detayları henüz ortada yok ama Musk katılım vaat etse de yönetimi halka bırakacağına dair bir işaret gözükmüyor. Partinin, halkın katılımından çok sermaye ve takipçi gücü üzerinden şekilleneceği düşünülüyor
X.com üzerinde dosdoğru mesajlar atan insanların yanında, bol miktarda saçmalayanlar ve tabii ki botlar da var. Yani bir yapay zekâ, bu ortamdan besleniyor ve eğitiliyorsa, ne demesini bekliyorsunuz?
© Tüm hakları saklıdır.