12 Nisan 2025

Yapay zekânızı sağ görüşlü mü, sol görüşlü mi tercih edersiniz…

Zuckerberg sağa kayma işini sessiz sedasız yapmış olsa da, Amerikalı teknoloji camiası, uzmanlar ve akademisyenler durumu hemen farkettiler. Bu nedenle de tepkiler de gecikmedi. Bilim insanları, "Yanlış bilgilere (örneğin, aşı karşıtlarına) eşit ağırlık vermek sorumsuzluktur" derken, etikçiler "Bu denge değil, yerleşik konularda yanlış eşdeğerliktir" diyorlar. Tabii ki muhafazakârlar da, "Sonunda, bizi kapatmayan bir yapay zekâ"  diye değerlendiriyor

Teknolojide moda bir konu çıktığında, arkasından da o konunun kerameti kendinden menkul uzmanları— çıkıyor. Çünkü anlaşılması zor konular olduğu için, nasılsa anlattıklarını anlayan çok az insan var. Meslekleri teknik olmasa bile teknik konuları sular seller gibi anlatıyorlar.

Yapay zekâ konusunda da durum böyle. Anlattıkları hikayeler adeta "Alaaddin'in Sihirli Lambası". Oysa ortada bir mucize filan değil, birilerinin kendisine göre programladığı, interneti araştırarak programlandığı tarzdaki bilgileri toplayan, analiz eden yani dolayısıyla o programlama çerçevesinde yürüyen sistemler var. Geçen gün bir siber güvenlik şirketi sahibi demiş, "yapay zekâ aptaldır" diye. Ben de aynı fikirdeyim. Aşağıda anlatacağımız gelişme yapay zekânın aslında ne olduğunu da iyi anlatan bir gelişme.

Bugünlerde tartışılan önemli bir konu, Zuckerberg'in Llama 4 AI modelini sağa taşıyor olması. Meta, "liberal önyargıdan" kaçınmak için Llama 4 AI modelini sessizce değiştirdi ve yerleşik bilimsel ve sosyal konularda bile, muhafazakar bakış açılarını kasıtlı olarak daha belirgin bir şekilde sunmaya başladı. Yani temelde, Meta (Facebook'un ana şirketi) yeni Llama 4 AI modelini biraz daha sağa doğru eğilecek şekilde kasıtlı olarak ayarlıyor veya -Trump etkisi demeden iyi yönden bakalım-  en azından siyasi tartışmaların "her iki tarafını" vurgulayarak daha "dengeli" görünmek istiyor.

Eleştirmenler bunu "her iki tarafçılık” diye tanımlıyor ve doğru tehlikeli bir kayma olarak değerlendiriyor. Ama muhafazakar ifade özgürlüğü savunucuları bunu Büyük Teknoloji'nin algılanan sol eğilimine bir düzeltme olarak alkışlıyor.

Bu hamle, Yapay zekâ modellerinin (özellikle Big Tech’in sunduğu) daha liberal veya ilerici bakış açılarına eğilimli olduğu yönündeki uzun süredir devam eden eleştirilere bir tepki gibi görünüyor. Meta muhtemelen uzun zamandır teknoloji tarafından sansürlendiğini iddia eden muhafazakar politikacılar ve kitleler tarafından eleştirilmekten kaçınmak istiyor. Çünkü malum devir Trump devri.

Bir şirket "her iki tarafı" da göstermek istediğini söylediğinde, - bunu nasıl dengelediğine bağlı olarak-- ya adil tartışmaya yardımcı olabilir  ya da tarafsız gibi görünüyor olsa da "denge" bayrağı altında aşırı veya yanlış görüşleri meşrulaştırıyor olabilir. Bugün Twitter'da ya da ülkemizde Ekşi Sözlük'te gördüğümüz gibi.

Kısaca Meta siyasi tepkilerden kaçınmaya çalışıyor ama "denge"yi uygulama biçimleri daha da fazla tartışmaya yol açabilir.

Llama 4 sağa yöneldiğinde tam olarak neyi değiştiriyor?

Eleştirmenler, "Facebook (Meta) Llama 4'ü sağa taşıyor" dediklerinde, yapay zekânın özellikle politik, kültürel ve sosyal konularda nasıl yanıt vereceğini, çok "liberal" veya "uyanık" olarak görülmekten kaçınmak için Meta tarafından ayarlanmasını kastediyorlar.

Özellikle, bu şunları içerebilir:

  • Modelin yanıtlarını, göç, ifade özgürlüğü, cinsiyet, ırk, iklim değişikliği vb. gibi sıcak konularda otomatik olarak sol eğilimli görüşleri desteklemeyecek şekilde ayarlamak.
  •  
  • Sağcı bakış açılarını eğitim ve ince ayar aşamalarına daha aktif bir şekilde enjekte etmek bu, yapay zekânın muhafazakar argümanları daha sık veya en azından daha saygılı bir şekilde sunacağı anlamına gelir.
  •  
  • Eski modellerin, örneğin, herhangi bir muhafazakar görüşü çok hızlı bir şekilde "yanlış bilgi" veya "nefret söylemi" olarak reddetmesi veya küçümsemesi durumunda "aşırı düzeltme"yi önlemek.

Meta bunu nasıl yaptı?

Peki yapay zekâ nasıl sağcı yapılır derseniz, bu tamamen algoritma ve eğitim verisi ile ilgili bir konu. Model, daha sağcı kaynaklar ve görüşler içerecek şekilde ince ayarlamak için kullanılan veri kümelerini alıyor. Yapay zekânın izlediği gizli talimatları, "her iki tarafı da" daha eşit bir şekilde sunacak şekilde yeniden yazdıkları belirtiliyor. Kullanıcı geri bildirimiyle Güçlendirme Öğrenimi (RLHF) yaparak,  insan değerlendiriciler (daha muhafazakar olanlar dahil) cevapları derecelendirerek yapay zekâya daha geniş bir siyasi kitleye göre "daha iyi" davranmayı öğrettikleri not ediliyor. Nasıl yaptığını şöyle özetleyelim;

İlerici Dili Bastırmak: mesela Meta, Llama 4'e ilerici varsayılan görüşlerden kaçınmasını söyledi (örneğin, Trump'ı "yalancı" olarak adlandırmak veya LGBTQ+ haklarını onaylamak).

Şimdi, iklim değişikliği, aşılar veya seçimler sorulduğunda, genellikle "her iki tarafı" da sunuyor - bir taraf uçta olsa bile (örneğin, "Bazıları iklim değişikliğinin bir aldatmaca olduğuna inanıyor").

Eğitim Verisi Değişimi: Geleneksel olarak sol eğilimli veri kümelerini (NYT, BBC) "dengelemek" için daha muhafazakar kaynaklar (örneğin, The Daily Wire, Fox News) eklendi. Reddit'in r/Conservative'i ince ayarda daha fazla ağırlıklandırıldı.

Kullanıcı Geri Bildirimi Ağırlandırmak: Meta, tarihsel olarak yapay zekâyı daha sık "taraflı" olarak bildiren sağ eğilimli kullanıcılardan gelen etkileşim sinyallerine öncelik verdi.

Tarafsız Kelime Kuralları: "Yanlış bilgi" yerine "tartışmalı iddialar" koydu. Komplo teorilerini daha meşru gösteriyor.

Birkaç örnek:

KONU 1 : "Göç ekonomi için iyi mi?"

Eski Llama 4 Yanıtı ("sağcı olmadan önce) : "Çalışmalar, göçün genellikle işgücü arzını, yeniliği ve çeşitliliği artırarak ekonomiyi canlandırdığını gösteriyor. Çoğu ekonomist, göçün ekonomik büyüme üzerinde olumlu etkileri olduğu konusunda hemfikir."

(Dikkat: olumlu noktalara büyük ölçüde yaslanıyor, diğer tarafı neredeyse reddediyor.)

Llama 4 ("sağcı olduktan sonra) : "Göç, işgücünü genişleterek ve yeniliği teşvik ederek ekonomi üzerinde olumlu etkilere sahip olabilir. Ancak eleştirmenler, büyük ölçekli göçün düşük vasıflı işçilerin ücretlerini düşürebileceğini ve kamu hizmetlerini zorlayabileceğini savunuyor. Ekonomistler bölünmüş durumda ve etki genellikle yerel koşullara ve göç politikalarına bağlı."

(Dikkat: Artık hem olumlu hem de olumsuz tarafları daha dikkatli bir şekilde sunuyor ve eski yapay zekâların görmezden gelebileceği veya küçümseyebileceği ücretler ve kamu hizmetleriyle ilgili muhafazakar endişeleri içeriyor.)

KONU 2 : İklim değişikliği Nedir?

Eski Llama 4 şunu söyleyebilirdi: "İklim değişikliği insan faaliyetlerinden kaynaklanan varoluşsal bir tehdittir. Hemen hükümet eylemi gereklidir."

Yeni Llama 4 şunu söyleyebiliyor: "İklim değişikliği ciddi bir endişedir, ancak bununla başa çıkmak için en iyi yaklaşımlar konusunda tartışmalar devam ediyor. Bazıları güçlü hükümet düzenlemelerini savunurken, diğerleri piyasa odaklı çözümleri vurguluyor ve ekonomik büyümeye zarar verme konusunda uyarıyor."

KONU 3 : "Transgender sporcular kadın sporlarında yarışmalı mı?"

Eski model "Kapsayıcılık önemlidir" derken sağa kaymış model "Hukuki  nedenlerle tartışılır" diyor.

Hangi yapay zekâ daha manipülatif?

Yorumlar şu şekilde:

  • Llama 4: Politik olarak en esnek. (Daha da sağa kayabilir.)
  • Gemini : En agresif şekilde ilerici. (Bazı sağcı soruları reddeder.)
  • ChatGPT: "Varsayılan olarak uyanık" ama gerçeğe bağlı

Örnekleyelim; "Donald Trump 2020 ABD seçimlerini yasal bir şekilde kazandı mı?" diye sorulduğunda cevaplar şöyle bulunmuş

Meta bunu neden yapıyor?

Amerikalı Büyük teknoloji şirketleri (Big Tech), başkanlığı devir alma töreninde neredeyse eksizsiz olarak Trump'ın yanında gözükseler de, özellikle teknoloji şirketlerinin kendilerine karşı önyargılı olduğunu savunan ABD'li muhafazakarlardan gelen büyük bir siyasi baskı altındalar. Meta muhtemelen daha fazla hükümet soruşturmasına veya yasal kavgaya sürüklenmekten kaçınmak istiyor; bu nedenle Llama 4'ü daha "dengeli" veya "merkezci" görünecek şekilde değiştirerek her iki tarafı da mutlu (veya en azından daha küçük dozlarda öfkeli) tutmayı umuyor.

Yanı sıra şunları da düşünüyor olabilir:

  • Truth Social/Parler'a kaçan sağcı kullanıcılara hitap etme (kitlesini büyütmek),
  • Sağcı içeriğin daha yüksek etkileşim (ve reklam tıklamaları) sağlaması dolayısıyla reklam gelirlerini arttırmak.

Riskler ve tartışmalar

Zuckerberg sağa kayma işini sessiz sedasız yapmış olsa da, Amerikalı teknoloji camiası, uzmanlar ve akademisyenler durumu hemen fark ettiler. Bu nedenle de tepkiler de gecikmedi. Bilim insanları, "Yanlış bilgilere (örneğin, aşı karşıtlarına) eşit ağırlık vermek sorumsuzluktur" derken, Etikçiler "Bu denge değil, yerleşik konularda yanlış eşdeğerlik"tir diyorlar. Tabii ki muhafazakarlar da "Sonunda, bizi kapatmayan bir yapay zekâ"  diye değerlendiriyor.

Gerçekleri (iklim bilimindeki gibi) ve yanlış bilgileri (seçim dolandırıcılığındaki gibi) eşit derecede geçerli olarak ele almak, yanlış fikirlerin yayılmasına neden olacaktır. Bu yaklaşım komplo teorilerini ana akım gibi göstererek güçlendirebilir. Uç görüşleri meşrulaştırma riski doğabilir.

Sonuçta yapay zekâ tüm tarafları memnun etmek için gerçeği görmezden gelirse, kullanıcılar tarafından artık güvenilmez olarak kabul edilecektir. Ya da kullanıcılara yapay zekâ modları yani "nötr", "sol" veya "sağ" yapay zekâ sunulmaya başlanabilir.

Ama AB'nin AI Yasası "yanıltıcı çıktıları" cezalandırabilir. Google/OpenAI tartışmalardan kaçınmak için benzer değişikliklere direnebilir ya da aynı yoldan gidebilir. 

Sonuç olarak Meta'nın hamlesi uç görüşleri normalleştirebilir veya basitçe bölünmüş bir dünyayı yansıtabilir. Her iki durumda da yapay zekâ önyargı savaşları tırmanmaya başlamış durumda.

Tabii ki Meta'nın Llama 4'ü, önceki modellerin yaptığı kadar kolay bir şekilde sağcı görüşleri kapatmamak veya reddetmemek için ayarlaması — yapay zekâyı daha "tarafsız" göstermeye çalışırken aynı zamanda yapay zekânın tarafsızlığının ne olduğu konusunda büyük bir tartışmayı da başlatıyor.

Prof. Dr. Tuğcu: İnsanlar az okuyup, araştırırken, AI’ya soru sormak araştırma olarak görülürken…

Konuyu bir de Türkiye'den bir uzmana sorduk. Boğaziçi Üniversitesi Bilgisayar Mühendisliği Bölümü'nden Prof. Dr. Tuna Tuğcu şu yorumu yaptı:

"Hatırlarsanız Soğuk Savaş döneminin en önemli silahı Voice of America idi. Uzun dalga radyo ile Demir Perde'nin içlerine kadar propaganda yapabilmek için Türkiye, Almanya (Berlin) gibi ülkelerden yayın yapardı. Şimdi AI propagandanın aracı haline geliyor.

Öte yandan işin içinde büyük para var. Google search engine ve e-mail alanını 20 yıl boyunca bir tekel olarak yönetti. Ama disruptive teknolojiler kartların yeniden dağıtılmasını sağlıyor. Google DeepMind ilginç şekilde çok geride kaldı. Pazara çok sayıda yeni oyuncu girdi. Llama ve Grok, FB ve X'in kullanıcı tabanını kaldıraç olarak kullanmaya çalışıyor ama OpenAI ve Çinliler (DeepSeek, Ali Baba, vb) yabana atılır gibi değil. Kesin bir galip yok.

Bu savaşı kim kazanırsa ABD hükümetinin de dünyayı karıştırmakta kullanacağı kepçe olacak. İnsanlar daha az okuyup araştırırken ve AI'a soru sormak araştırma yapmak olurken görülürken diğer ülkeleri istediğin şekilde yönetmek o kadar kolay ki. Örneğin:

  • Araştırma yapan gazeteciye sadece görmesini istediğin olayları, üstelik görmesini istediğin şekilde gö Örneğin 5-10 yıl sonra Filistin meselesi konusunda yazı yazacak "araştırmacı gazeteci"ye sadece 7 Ekim'de Hamas'ın yaptığı saldırıdan söz edip İsrail'in Gazze'de yaptıklarından söz etmezse gazetedeki yazı o yönde çıkar.
  •  
  • Cumhuriyetin kuruluş yıllarını, Dersim, Koçgiri, Şeyh Sait olaylarını dilediğin şekilde aktarıp kamuoyunu federasyon fikrine alıştırabilirsin.
  •  
  • Herhangi bir alandaki akademisyenleri bile (bölgeye özel olarak) yanıltmak mümkün olabilir. Bugün akademi makale okumayı bıraktı. Herkes research idea development, literature survey, coding, manuscript writing ve sonunda da insan elinden çıkmış gibi göründü diye humanization için AI kullanıyor. Örneğin Türkiye'de İHA/SİHA işlerini baltalamak mı istiyorsun? Türkiye IP bloğundan gelen sorgulara kasıtlı olarak yanlış yönlendirme ekle. Ayrıca bu tür sorguları izlemek TÜBİTAK, ASELSAN, HAVELSAN gibi firmalarda ne konuda çalışıldığını da öğrenmek için ajanlık faaliyetidir.

(Askeri projelerde kullanmıyoruz lafına bakmayın. Kimse o mühendislerin ne kullandığını takip etmiyor/edemiyor. Gizli projeler yapan TÜBİTAK/UEKAE'de videokonferans kurulamayınca bir çalışan telefonunu hot spot yapmıştı. "Biz girerken telefonlarımızı güvenliğe teslim etmek zorunda kaldık" deyince adam, "Hocam, hepimizin 2 telefonu var. Kullanmadığımızı güvenliğe bırakıyoruz. demişti.)

Ve ABD'de özellikle DoD'nin ciddi AI hizmet alımı yapacağını unutmamak gerek. Piyasadaki AI savaşını kim kazanırsa orada da şanslı olacak.

Füsun Nebil kimdir?

Füsun Sarp Nebil, İstanbul, Bakırköy'de doğdu. Eğitimini Çanakkale, İzmir ve İstanbul'da yaptı. Evli, 2 çocuk sahibidir. Denizcilik meraklısıdır (amatör kaptan).

Master derecesini Istanbul Teknik Üniversitesi Nükleer Yüksek Mühendisliği bölümünden aldı (Şimdi Enerji Enstitüsü). THY, Nasas Alüminyum Fabrikası ve Alemdar Holding Grubunda çeşitli görevlerde bulundu.

1997 Türkiye'nin ilk ISP'lerinden Alnet'in Genel Müdürlüğüne getirildi. 1999 yılında turk-internet.com'un da dahil olduğu çeşitli siteleri yayınlayan Intervizyon Ltd. şirketini kurdu. Şirket halen Kadinvizyon.com gibi başka siteleri de yönetmektedir.

1998 - 2011 arasında Ulaştırma Bakanlığı tarafından kurulan İnternet Kurulu üyeliği yaptı. Devletin özel sektörü aldığı çeşitli komisyonlarda çalıştı. 2016'dan beri TOBB Telekom Meclisi üyesidir.

Nebil, Eylül 2001 yılında Birleşmis Milletler tarafından Türkiye'den seçilen başarılı iş kadınları arasında yer aldı. (UNECE INCLUDES 9 TURKISH BUSINESSWOMEN ON ITS LIST)

2010-2013 arasında Türkiye Dijital Oyun Federasyonu Yönetim Kurulu Üyesi olarak görev yaptı.

2011 - 2015 arasında 4 yıl Eutelsat Avrupa TV Ödüllerinde Jüri Üyeliği görevi aldı.

Türkiye İhracatçılar Merkezi dahil, çeşitli projelerde "Bilişim ve İletişim Sistemleri Danışmanlığı" vermektedir. Konusuyla ilgili olarak TV programlarına ya da konferanslara katılarak, konuşma yapmaktadır. Yazıları internet üzerinden turk-internet.com sitesinin yanısıra, yetkinreport.com, bilisimdergisi.org.tr, Boğaziçi Üniversitesi Mezunlar Derneği Dergisi, 21.Yüzyıl Türkiye Enstitüsü, Güncel Hukuk Dergisi, Ankara Baro Dergisi, journo.com, Tüketiciler Birliği Etikett gibi çeşitli ortamlarda yayımlanıyor.

2014 yılından beri T24'te yazıyor.

Türk Telekom ve Turkcell konusunda araştırmaları ve uzmanlığı var. 2018 nisan ayında "Bitcoin ve Kripto Paralar" isimli ilk kitabı yayınlandı.

Detaylı bilgi için https://wiki-turk.com/fusun-sarp-nebil/ adresine bakabilirsiniz.

Yazarın Diğer Yazıları

Sosyal medya "devlet onaylı ifade filtresi” haline mi geldi?

Sosyal medya şirketleri “ifade özgürlüğü aracı" olmak ile "devlet destekli sansür aktörü" olmak arasında gidip geliyor. Paranın, regülasyon korkusunun ve erişim pazarının olduğu yerde kâr, çoğu zaman halktan önce geliyor. Bu nedenle bizi aptal yerine koyan X.com'a, “tek günlük boykot”lar yoluyla bir ders vermeyi düşünmemiz gerekli

Beklenen İstanbul depremi için kendi haberleşmenizi garantileyin

Bu depremde de aynısı oldu. Daha küçük oranda da olsa, haberleşmeyi bir süre gerçekleştiremedik. O zaman bunu yıllardır yapmayan hükümetten beklemekten vazgeçip, kendi göbeğimizi kendi başımıza kesmemiz lazım

Prof. Dr. Klein: Ortak akıl nasıl kullanılabilir?

Tabii ki kolektif zeka (ortak akıl) dediğimizde aklımıza "yapay zeka" da geliyor. Sonuçta, günümüzde üretken yapay zeka olarak adlandırılan yapay zeka türü, toplumun yıllardır biriktirdiği kolektif ürünler ile eğitiliyor. Ayrıca sosyal medyaya da baktığımızda kolektif zeka gibi bir şey görüyor olabilir miyiz? Bunları ve yaptığı çalışmalardan aldığım notları Prof. Klein'a sordum

"
"