12 Aralık 2021

Süper yapay zekâ

Pek çok karamsar düşünürün dediği gibi, belki kötü amaçlar için üretilmiş bir süper yapay zekâ uygulamasına müdahale edip, onu değiştirmek mümkün olmayacaktır. Ancak o 'kötü amaçlı' süper yapay zekâ uygulaması ile mücadele edecek 'iyi amaçlı' süper yapay zekâ uygulamalarının yaratılabileceğini de yok saymak bilimsel bir yaklaşım olmayacaktır

Üç tür yapay zekâ olduğu kabul edilmektedir:

  • Dar yapay zekâ
  • Geniş yapay zekâ
  • Süper yapay zekâ

Süper yapay zekâ kavramının ne olduğunu anlayabilmek için yapay zekâ tanımını kısaca hatırlayalım: Yapay zekâ, aslında, makinelerin, cihazların ve kullanılabilen her türlü nesnenin içine gömülen çiplere ve sensörlere yüklenen yazılım ve algoritmaların, insan zekâsını taklit (simulate) etmeye çalışan bilgisayar programları tarafından kullanılmasıdır. Yapay zekâ, özünde, insan beyninin çalışmasından ilham alınarak oluşturulmaya çalışılmaktadır.

Dar yapay zekâ, bir alanda eğitilen ve geliştirilen yapay zekâlar için kullanılan ifadedir. Dar yapay zekâlar, yüklendiği iş dışında başka işler yapamaz. Bilgi ve kabiliyeti sınırlı olan bu yapay zekâlar, ağırlıklı olarak arama motorları, tercümanlık, mobil uygulamalar ve tekrarlanan işlerde kullanılmaktadır.

Genel yapay zekâ, insan beyni gibi sinir ağlarına sahip ve bu ağlar sayesinde dar yapay zekâları birbirine bağlayan ve iş yapmalarına olanak sağlayan sistem için kullanılan ifadedir. Dar yapay zekâdan en önemli farkı, insan gibi düşünme, anlamlandırma ve bir fikri hayata geçirme özelliğine sahip olmasıdır.

(Dar ve genel yapay zekâ türlerini daha önceki yazımlarımda detaylı bir şekilde anlatmıştım. O yazıları okumamış olanlar ya da okuyup ta hatırlamıyor olanlar için ilgili linkleri bu yazının sonuna ekliyorum.)[1]

Gelelim süper yapay zekâ kavramına. İnsan beyninin temel çalışma prensip ve fonksiyonlarına göre çalışan, ancak insan beyni ve düşünce sisteminden daha üstün özelliklere sahip yazılım ve algoritmalar olacağı öngörülmektedir. Süper yapay zekânın kendi algoritmalarını oluşturmasının yanı sıra kendi donanımlarını da yaratabileceği varsayılmaktadır.

Dar yapay zekâ türleri günümüzde başarı ile kullanılmaktadır. Genel yapay zekâ denemeleri de hızla sürmektedir. Çok yakın bir zamanda ilk örneklerini kullanmaya başlayacağız. Süper yapay zekâ ise henüz sadece fikir aşamasındadır. Ne zaman gerçekleşeceği ise bilinmemektedir. Ancak, teknoloji ve yazılım dünyasındaki gelişimin hızına bakarak, çok uzak olmayan bir gelecekte hayata geçeceğini tahmin etmek zor değil.

Süper yapay zekâ, henüz tasarım aşamasına bile ulaşmamışken, pek çok komplo teorisine ilham kaynağı olmuştur. Bu teorilerin ortak noktası, kontrolden çıkacak olan süper yapay zekânın, insan soyunu yok edecek olmasıdır. Bu teorileri savunanların büyük bir kısmı, Stephen Hawking'in bu konuda söylediklerinin bir kısmını alıp, kendilerine dayanak noktası yapmaktadırlar. Oysa Hawking, bu konuda kesin hükümlerde bulunmayıp, iyi ve kötü olasılıkları ortaya koymaktadır.

Hawking "Etkili yapay zeka yaratmadaki başarı, uygarlığımızın tarihindeki en büyük olay olabilir. Ya da en kötüsü. Sadece bilmiyoruz. Bu nedenle, yapay zekâ tarafından sonsuz bir şekilde yardım edilip edilmeyeceğimizi veya onun tarafından görmezden gelinip, bir kenara atılıp atılmayacağımızı veya onun tarafından makul bir şekilde yok edilip edilmeyeceğimizi bilemeyiz" dedikten sonra, şimdiden, AI yaratmanın ve kullanmanın kurallarının konulmasına dikkat çekmektedir. Günümüzde tüm ülkelerin kabul ettiği, nükleer silahların sınırlandırılmasına benzer bir anlaşmanın yapılmasını önermektedir.[2]

Kontrolsüz olarak geliştirilecek olan süper yapay zekâ uygulamalarının, değişik ölçeklerde, insanlığa zarar verme olasılığı elbette vardır. Bu yüzden, küresel ölçekte yasal düzenlemeler yapılmalıdır. Ama bu tehlikeye bakarak, genel yapay zekâ ve süper yapay zekânın insanlığa sağlayacağı faydaları da görmezden gelemeyiz.

Süper yapay zekâya kötümser yaklaşanlar, genellikle, süper yapay zekâyı kontrol edemeyeceğimiz tezinden yola çıkarak felaket senaryoları üretiyorlar. Bu konuda başı çeken, Center for Future Mind direktörü ve "Yapay Sen: AI ve Aklın Geleceği" kitabının yazarı Susan Schneider, çok yaratıcı bir örnek veriyor; "Bir ataş üreticisinin yapacağı yanlış bir programlamayla, üretimi ve satışları maksimuma çıkartmayı hedefleyen bir ataş üretim sisteminin, zamanla, dünyadaki tüm maddeleri ataş üretimine çevirip, gezegeni yok edebileceğini göz ardı etmemeliyiz" diyor.[3]

Bir süper zekâdan "insan mutluluğunu maksimize etmesini" istemek, onu, beynimizin zevk merkezlerini yeniden düzenlemeye veya insan beyinlerini bir süper bilgisayara yüklemeye zorlayabilir ve Bostrom'un tahminine göre, bizi, sonsuza kadar, beş saniyelik bir mutluluk döngüsü yaşamaya zorlayabilir.

Karamsarlar, özetle, "Yapay bir süper zekâ ortaya çıktığında, kıyamet bazı garip ve beklenmedik şekillerde gelebilir" anlayışıyla hareket etmektedirler.

Bu riskleri gören Hawking gibi bilim insanları, uluslararası toplumun yapay zekâ kullanımı ile ilgili küresel yasalar çıkarması gerektiği konusunda uyarıda bulunmaktadırlar. Yapay zekâ üreticilerinin tümünün, ahlaki kurallara göre algoritmalar oluşturmayacağı konusunda hepimiz hemfikiriz. Zira uluslararası toplumun uzlaştığı bir ahlaki kurallar listesi mevcut değildir. Ancak tüm yapay zekâ üreticilerinin 'kötü niyetli' algoritmalar üretmeyeceğini de varsayımlarımız içine yerleştirmeliyiz.

'Kötü niyetli' yapay zekâ üreticisi olduğu kadar, 'iyi niyetli' yapay zekâ üreticisi de olacaktır. Üstelik bunların gelişimi de eşzamanlı olacaktır. Oysa karamsarların teorilerinin gerisinde, dünyayı yok edebilecek tek bir süper yapay zekânın (ya da diğerlerinden çok daha güçlü bir süper yapay zekânın) ortaya çıkacağı varsayımı yatmaktadır. Oysa zıtların dünyasında iyi ile kötü, güçlü ile zayıf yan yana yürümektedir. Kötü niyetli amaçlar için üretilmiş süper yapay zekâ yazılım ve algoritmaları kadar iyi amaçlar için üretilmişler de var olacaktır.

Pek çok karamsar düşünürün dediği gibi, belki kötü amaçlar için üretilmiş bir süper yapay zekâ uygulamasına müdahale edip, onu değiştirmek mümkün olmayacaktır. Ancak o 'kötü amaçlı' süper yapay zekâ uygulaması ile mücadele edecek 'iyi amaçlı' süper yapay zekâ uygulamalarının yaratılabileceğini de yok saymak bilimsel bir yaklaşım olmayacaktır.

Henüz süper yapay zekâ çağının öncesindeyiz. Ortaya çıkabilecek riskler ve olasılıklar günümüzün nükleer silahlarından daha tehlikeli olmayacaktır. Uluslararası toplum nasıl nükleer silahların tehlikelerini görüp, üretim ve kullanımı hakkında küresel kısıtlamalar getiriyorsa, süper yapay zekâ konusunda da benzer önlemler alacaktır diye düşünüyorum.



[1] https://t24.com.tr/yazarlar/hayri-cem-haftalik/endustri-4-0-in-bilesenleri-yapay-zeka,26678

https://t24.com.tr/yazarlar/hayri-cem-haftalik/yapay-zekanin-kullanim-alanlari,26761

https://t24.com.tr/yazarlar/hayri-cem-haftalik/yapay-zekanin-uretimde-kullanim-alanlari,26847

[2] HRUSKA Joel, ExtremeTech, Stephen Hawking: AI Could Be the Worst Event in the History of Civilization, 8.11.2017 URL: https://www.extremetech.com/computing/258646-stephen-hawking-believes-ai-could-be-the-worst-event-in-the-history-of-civilization

[3] DVORSKY George, Gizmodo, How an Artificial Superintelligence Might Actually Destroy Humanity, 26.05.2021 URL: https://gizmodo.com/how-an-artificial-superintelligence-might-actually-dest-1846968207

Yazarın Diğer Yazıları

Metaverse ekonomisini oluşturan katmanlar

Katmanlarda yer alan firmaların tamamı Unicorn statüsünde yer alan firmalar oldukları göz önüne alındığında, metaverse platformlarının 1 triyon dolarlık pazar yaratacağı öngörüsünün ne kadar gerçekçi olduğu kendiliğinden ortaya çıkıyor

TV kanallarının seçmeni ikna gücü

Seçmen davranışlarını etkilemek ve değiştirmek konusunda TV halen en önemli mecraların başında geliyor. Elbette bu mecra içinde de haber programlarının ve tartışma programlarının ağırlığı diğer programlara göre çok fazladır

Metaverse'te hukuksal sorunlar

Tüm siber alemde artık global yasalar, kurallar çıkartılmalı. Siber silahlardan tutun da dronlarla hava ulaşımına, otonom arabaların kullanımına kadar yasa ve kural bekleyen pek çok konu var