Mustafa ÖZBEY

Mustafa ÖZBEY

[email protected]

İnsanlık kendi kıyametini programlıyor!

16 Ocak 2018 - 09:35


SİLAH, KOZMETİK, GIDA, SOSYAL MEDYA, HEPSİ BİR YANA; İLK DOLAR TRİLYONERİ YAPAY ZEKÂ İŞİNDEN ÇIKACAK! DÜNYANIN DÖRT BİR YANINDA KOŞULAN MUAZZAM BİR YARIŞ BAŞLADI. 


ABD işin içinde, Rusya ve Çin de… Stephen Hawking, Elon Musk ve diğer uzmanlarsa “Bu bizim sonumuz olur” diye uyarıyor. Köprüden önce bir son çıkış var mı? Yoksa insan kendi kıyametini kendi elleriyle mi hazırlıyor? 2017 alarm zillerinin çaldığı yıldı! 

Yapay zekâ üzerine gelecekte bir belgesel çekildiğinde, 2017’ye özel bir yer ayıracak. Çünkü bu yıl, herkesin mesele hakkında eteğindeki taşları döktüğü, hırslarını sergilediği ya da uyarılarda bulunduğu yıl. 2017, gelecekte insanın mı robotların mı kazanacağı üzerine en ciddi bahislerin açıldığı yıl…

Ne olacak gelecekte? Önde gelen düşünürlere göre tehlike çanları türümüz için çalıyor. Uyarılar bir süredir devam ediyordu ama bu sene katlanarak arttı. Fizikçi Stephen Hawking örneğin, yapay zekânın ortaya çıkışının insanlık tarihinin en kötü gelişmesi olabileceğini öne sürüyor. Hawking’e göre bizler, yapay zekâ tarafından çöpe atılabilir ya da dünya üzerinden silinebiliriz. Hawking, bir şey söylüyorsa dikkate almak lazım. 

İşaret fişeklerini atan sadece İngiliz bilim adamı değil. Gelecek üzerine en çok düşünen insanlardan, Tesla Motors ve SpaceX’in kurucusu, mühendis, mucit ve yatırımcı Elon Musk —geçen ayki Türkiye ziyareti esnasında bizim memlekette de epey bir hayran kitlesi edindi kendine— Ağustos sonunda, robotbilim ve yapay zekâ alanın önde gelen 116 ismiyle birlikte Birleşmiş Milletler’e hitaben bir açık mektup kaleme aldı. 

Söz konusu mektup sadece fikir jimnastiği olsun diye yazılmamıştı. BM, bu yıl yapay zekâya dayanan drone’lar, tanklar ve makineli tüfekler üzerine resmi tartışma açma kararı vermişti. Musk ve arkadaşlarının mektubu, bu yöndeki silahlanmanın önüne geçilmesini, ‘katil robot’ yarışının engellenmesini talep ediyordu: “Bu silahlar bir defa geliştirilirse, herhangi bir savaşın bugüne dek görülmemiş kadar büyümesi ve insanlığın algılayamacağı kadar çabuk yayılması riski doğar. Vaktimiz kalmadı. ‘Pandora’nın kutusu’ açılırsa, kapatması çok zor olacak.”

Bu uzmanlar kaygılanmakta haksız mı? “Abartıyorlar” diyorsanız, Putin’in ilgili mektubun yayımlanmasının hemen ardından gelen şu demecine bir göz atın: “Yapay zekâ geleceğimizdir. Sadece Rusya için değil, tüm insanlık için… Muazzam imkânlar vaat ediyor ama tahmin edilmesi güç riskler de barındırıyor. Şu an için bildiğimiz: Bu alana kim hakim olursa, dünyaya da o hükmedecek.” 

Putin, hırslı açıklamalarında yalnız değil. Çin, yapay zekâda 2030 itibariyle küresel lider olmayı hedeflediğini çoktan açıklamıştı. Mevcut lider ABD’nin, rekabette geride kalmamak için elinden geleni ardına koymayacağı aşikâr. Bunlar işin devlet kısmı… Bir de tek amacı ‘kâr etmek’ olan uluslararası şirketleri düşünün. Pasta büyük, iştah kabartıyor ve belli ki masaya oturan en büyük dilimi yiyecek.

Siz onu bir de savaşta görün!

Her ne kadar herkesin ciddi ciddi kafa yorması gereken sonuçlar üretecek olsa da bunlar tartışması tatlı konular sayılır. Gazetelerde, dergilerde okuması zevkli; “Ohooo daha çok var, nasıl olsa ucu bize dokunmaz” dediğimiz işler… Tadınızı kaçırmak gibi olacak ama, biraz daha dikenli mevzulara girelim öyleyse.

En vahim meseleye gelelim. Onlarca yıldır bu konular üzerine çalışmış uzmanlar uyarıyor: 


Makinalar, günün birinde kendi motivasyonlarını geliştirecek, hatta bilinç sahibi olacak duruma gelecek.
Yapay zekâ savaşı tırmandıracak, hatta başlatacak kararlar alabilecek. 


Senaryo gerçekleştiğinde dünyamızın, insanın gözüne bugünkünden çok daha tehlikeli görüneceğini de ekliyor bu uzmanlar. Ortada insandan daha güçlü makineler dolaşacak ve biz onların niyetinden hiçbir zaman emin olmayacağız! Londra’da King’s College’da öğretim üyesi, ‘Strategy Evolves: From Apes to Articial Intelligence’ adını verdiği kitabı birkaç hafta içinde raflara çıkacak olan Kenneth Payne, İngiliz Independent gazetesinde mevzuya açıklık getirmek için çok tanıdık bir örnek vermiş: “Siri’yi bir düşünün. Ne dediğinizi, koyu aksanlı olsanız bile anlıyor. Ama ya cevapları? İşte onlar, modern yapay zekânın neyin ne olduğunu anlamada pek bir fikri olmadığını ortaya koyuyor. Şimdi Siri’yi bir de silah kuşanmış olarak hayal edin. Cephede bir askerin silahını bırakmaya mı yoksa ateşlemeye mi niyetlendiğini anlayabilir miydi?”

 

Bir robot en kritik anda nasıl karar verecek?

Devam edelim. Bir Amerikan araştırma ekibi tarafından geliştirilmiş ‘Alpha’ isimli yapay zekâ savaş pilotu sisteminin, çatışma durumunda tam olarak ne yapacağından kesin emin olabilecek miyiz? Bu sistem, geçen sene bir çatışma senaryosunda, mevzisini korumak için iki savaş uçağına karşı dört sanal jet kullanmış ve hiçbir kayba uğramamıştı. Üstelik senaryo gereği saldıran taraf, askeri kapasite bakımından yapay zekânın savunmasından çok daha üstündü! 

Benzer bir simülasyonda, Amerikan Hava Kuvvetleri’nden emekli bir albayın kullandığı bir sanal jeti de dize getirmişti yapay zekâlı Alpha. Yani beceri açısından hiçbir noksanı yok; belli ki gelecek birkaç sene içinde çok daha yetkin bir konuma ulaşıp, büyük ülkelerin savaş envanterinde yerini alacak bu sistemler. Peki en kritik anda hangi kararları nasıl vereceğini kim garanti edecek? Örneğin gerekli gördüğü takdirde sivil bir hedefi vuramaz mı Alpha? Etik sorular hâlâ doyurucu biçimde cevaplanmış değil. 

 

Vicdan yok, empati yok; peki ne var?

An itibariyle Alpha gibi sistemler ‘fuzzy logic’ (bulanık mantık) adı verilen bir kavramla iş görüyor. Bir karara varmadan evvel birçok seçeneği değerlendiriyorlar. Hangi manevra yapılacak, hangi silah ateşlenecek; bu değerlendirmeden sonra karar veriyorlar. İşte tam bu noktada makinaperverler ile yapay zekânın karşıtları tartışmaya giriyor. “Vicdan yok, empati yok, sivil hedefi niye gözetsin yapay zekâ” diyor itiraz edenler… Savunucularsa “İnsan zaten yanlış değerlendirmeler yüzünden her ortamda daha çok zarar veriyor” diye yanıtlıyor. Hangi kampta duracağınız artık size kalmış. 

Savunma tarafı, işi yine de şansa bırakmak istemiyor. Örneğin bir başka ekip, sistemini geliştirmek için Flickr’in iki milyon videosundan yararlanıyor. Sahillerde, golf sahalarında, tren istasyonlarında, hastanelerde geçen görüntülerle besliyorlar yapay zekâyı. Hiçbir videonun etiketi yok. Yani kopya çekmek yasak. Yapay zekâ kullanan model, videolara bakıyor ve sonra ne olacağına dair tahminini kendi görüntülerini üreterek gösteriyor. 

 

‘Süperinsan’ var ama o, biz değiliz

Bu konuda işin özü hakikaten de ‘sonra ne olacağı’. Bir adım sonrasını tahmin ederek karara varmak, hayatın da özü değil mi zaten? Bebeklikten itibaren adım adım öğrendiğimiz tam da bu değil mi? Kısacası sonrasını bilmek, robotların insanlaşmaya başlaması anlamına geliyor. Ama büyük bir farkla: Onlar bir nevi süper insan olacak!

Makinelerin müthiş bir veritabanını bizden çok daha büyük bir hızla tarama, işleme ve kullanma kapasiteleri, fiziksel güçle ve nihayet bilinçle birleşecek. Robocop’un, hatta Terminatör’ün bile ne kadar aciz robotlar olduğunu belki biz görmeyeceğiz ama bizden sonrakiler bu sayede görecek. Görecek de iyi mi olacak?

 

Karınca mıyız salyangoz mu?

Yapay zekâyla donanmış bilgisayarların 100 yıl içinde insanları alt edeceğini söyleyen Stephen Hawking’e dönelim: “Bu gerçekleştiğinde bilgisayarların hedefinin bizimkiyle aynı olduğundan kuşku duymamamız gerekir.” 

Hawking, bu sözleri iki sene önceki bir konferansta söylemişti. Ünlü fizikçi o zamanlarda yapay zekânın ‘kötü niyetle’ hareket edebileceğine pek ihtimal vermiyor, sadece insana üstünlüğünün sorun yaratabileceğinin altını çiziyordu. 

Aynı sene Reddit’in canlı bir soru-cevap etkinliğinde Hawking’in görüşlerinin biraz daha keskinleşmiş olduğunu anladık. “Biraz fazla mı tasalanıyorsunuz” diyenlere şu cevabı veriyordu bilim adamı: “Siz muhtemelen karıncalardan nefret eden ve onları sırf kötülükten öldüren biri değilsinizdir ama sorumluluğunuzda hidroelektrik tabanlı bir yeşil enerji projesi varsa ve su bırakılacak alanda da bir karınca yuvası bulunuyorsa, karıncalar hapı yuttu demektir. İşte ben ‘insanlık, o karıncaların konumuna gelmesin’ diyorum.”

Hawking —konuya dikkat çeken birçok bilim insanı gibi— bir ‘zekâ patlaması’ meselesi üzerinde duruyor ve bu patlamadan korkuyor. Nedir zekâ patlaması? Bir-iki örnek açıklamaya yeter: İnsanlar nasıl maymunlardan daha zeki bir canlıya evrildiyse, Albert Einstein nasıl anne-babasından daha zekiyse, insanlığın ürettiği yapay zekâ da anne-babalarını, yani bizleri geçecek. Daha akıllı makineler, sonuçta kendilerinden de akıllı modeller üretecek. Sonuç? “Salyangoz aklının bizim aklımıza göre konumunu düşünün, makinelere karşı biz de işte böyle kalabiliriz.” Böyle diyor Hawking. 

 

21’nci yüzyılın en büyük gelişmesinin kimse farkında değil 

Karıncalar, salyangozlar… “Hawking daha ne söylesin” diyeceksiniz belki ama zaman içinde fazlasını da anlattı. 

İngiliz bilim adamının ilk çözüm önerisi “Aman bu sektörü düzenleyelim, aman bizim çıkarımıza uygun bir zekâ üretelim” demekti. Bu sene, görüşlerini “Bir dünya hükümeti kurmazsak, teknolojik gelişmeler bizi bir biyolojik veya nükleer savaşa götürecek” diyerek revize etti. Nihayet geçen ay Wired dergisine verdiği röportajda sıkıntısının artık son haddine geldiğini gösterdi: “Robotlar bu gidişle insanların yerine geçecek” diyordu Hawking: “Birileri kendini geliştiren ve kopyalayan yapay zekâ üretecek. Bu da insanları saf dışı bırakan yeni bir hayat formu gelecek demektir.”

Zurnanın zırt dediği yer burası. Biz mi, onlar mı? Boynuz kulağı geçecek mi; geçtikten sonra da kulağı imha edecek mi? Şimdilik insanlığın kafasında tam olarak şekillenmiyor belki ama tekrarlamaktan usanmayalım, günümüzün en yakıcı sorularından biri bu. Yapay zekâya dair teoriler üzerine en büyük otoritelerden kabul edilen, Oxford Üniversitesi’nde çalışan İsveçli bilim adamı Nick Bostrom’a kulak verelim: “Dünyanın büyük bölümü, 21’inci yüzyılda yaşanacak en büyük olayların farkında bile değil.” 

 

Bomba kulağımızda

Belki adını sık duymuyoruz ama günümüzün en önemli düşünürlerinden biri o. ‘İnsanlığın Geleceği Enstitüsü’nün direktörlüğünü de yürüten Bostrom, üç sene önce yayımladığı ’Superintelligence’ (Süperzekâ) isimli kitabıyla dikkatleri üzerine çekti ve bir kâhin olarak anılmaya başladı. Görüşleri ve uyarıları üzerine saygın gazete ve dergilerde makaleler kaleme alınıyor; konuşmaları ilgiyle dinleniyor. “Bir zekâ patlaması ihtimalinin öncesinde biz insanlar, bir bombayla oynayan çocuklar gibiyiz. Patlamanın ne zaman olacağı konusunda en ufak fikrimiz yok ama bombayı kulağımıza dayarsak inceden bir ‘tik tak’ sesi duyuyoruz.”

İşte o tik-taklardan biri: ‘Google Brain’, kendi kripto algoritmasını geliştirebilen iki ayrı yapay zekâ sistemi üretmeyi becerdi. Bir üçüncü sistem bu şifrelemeyi yine kendi geliştirdiği metotlarla kırmaya çalıştıysa da başarılı olamadı. İlk iki sistem, kendi aralarında güvenli bir şekilde mesajlaşmayı becermişti.

 

İlk dolar trilyoneri kim olacak?

Kuşkunuz olmasın, ne kadar şerh konulursa konulsun, ne kadar çekince açıklanırsa açıklansın, yapay zekâ muazzam koşusuna devam edecek. Çünkü para bu işte. Hem de çok büyük para… 

Bir düşünün, şu anda dünyanın en zengin insanı konumunda olan Bill Gates’in serveti 85 milyar dolar. Seksen beşine dek yaşarsa, dünyanın ilk dolar trilyoneri olacağı tahmin ediliyor. Ama bir başka milyarder Mark Cuban, kimsenin Bill Gates’in yaşlanmasını beklemeye niyeti olmayacağını da anlatıyor: “Dünyanın ilk dolar trilyonerleri yapay zekâ işinden çıkacak.”

Kimse bu kadar parayı, insanlık ziyan olacak diye, kaçırmak istemez. Maalesef hayat böyle. Belli ki yapay zekâya da bu hırsı öğreteceğiz. Derslerine iyi çalışırlarsa halimiz duman! 

 

Yapay zekâ şampiyonları nasıl dize getirdi?

Yapay zekânın gücü gerçekte ne kadar? İnsanlık, bunu sınamak için elindeki en iyi kaynakları, yani en zeki insanları kullandı. Cevabını da aldı: “Bizden fazla!” New Scientist, bu sene yapay zekânın insanla beş büyük mücadelesini haberleştirmişti. 

 

İlk kurban Kasparov

Rus satranç şampiyonu Garry Kasparov’un karşısında hiçbir rakip tutunamıyordu. Ta ki yapay zekâyla karşılaşana kadar. Aslında işler Kasparov için önceleri yolunda gitmişti. 1996’daki altı maçlık seride şampiyon satranç oyuncusu, IBM’in ‘Deep Blue’ isimli bilgisayarını dize getirmişti. Ama çok değil, sadece bir sene sonraki rövanşı ‘Deep Blue’ aldı ve hesabı —görünen o ki— sonsuza dek kapattı. 

 

Azizim Watson, biz biliyoruz da mı oynuyoruz!

Bir zamanlar bizim televizyonlarda ‘Riziko’ diye yayımlanmış olan bilgi yarışması ‘Jeopardy!’ de yapay zekânın kurbanlarından. İki eski şampiyon, iki bilgi küpü Brad Rutter ve Ken Jennings, 2011’de yine televizyonda yayımlanan üç bölümlük seride, IBM’in ‘Watson’ isimli bilgisayarının yanına yaklaşamadılar bile. İşin enteresan kısmı, buna kimsenin şaşırmamış olmasıydı. 

 

Filozoflar da işe yaramadı

Çin’den 2500 yıl önce çıkan Go, bugüne ulaşan en eski oyun. Go’cular, satranççılara yukarıdan bakmayı sever. Düşünün, yazar Trevanian, ‘Şibumi’de, “Satranç, tüccarların ve muhasebecilerin oyunudur, Go ise filozofların ve savaşçıların” demişti. Go’cuların artık o kadar böbürlenmesine gerek yok. Zira, yapay zekâ bu kaleyi de düşürdü. Alanında dünyanın en büyüğü Güney Koreli Lee Sedol, geçen seneki beş maçlık seride yapay zekâlı ‘AlphaGo’un tüm olasılıkları tarayıp karar verme yeteneği karşısında tutunamadı bile. Yine de Sedol’un bu seride kazandığı tek karşılaşma, insanlığın umudu olmaya devam edecek. 

 

Libratus görüyor ve arttırıyor

Bir insanı bir makineden ayırabilecek oyunlardan birinin poker olduğu kabul ediliyor. Çünkü pokerde blöf var. Çünkü bir miktar delilik ve mantıksızlık var. Bu da pokeri ‘insancıl’ yapıyor. Bu seneye kadarmış! Carnegie Mellon Üniversitesi’nden bir ekibin geliştirdiği ‘Libratus’ dört büyük poker oyuncusunu dümdüz edince, pokerin insancıllığı da tartışmaya açılmış oldu. Ayrıca robotlar bizden daha ‘poker suratlı’; bu kısım tartışmaya kapalı.

 

Sırada kaos var!

Yapay zekâ için yeni hedef, şaşıracaksınız belki ama bir strateji oyunu: Starcraft 2. Çünkü oyunda pek kural yok; bunun yerine insanın içinde debelenmeye doyamadığı kaos var. Yapay zekâ kaosu da dize getirirse, sırada pek bir şey kalmayacak!

 

Hayır, bizi köleleri yapmayacaklar!

Doğaldır, gelecek nesilleri bekleyen soru da şu: Peki işleri elinden alınan, şu ‘vasıfsız’ insanoğlu ne yapacak? Elinde robot barmenin hazırladığı kokteyl bardağı, sırtı robot zanaatkârın ördüğü hasır şezlongda keyif mi çatacak? Yoksa yapay zekânın insafına mı kalacak? Kölesi mi olacağız bu tuhaf yaşam formunun?

Bu soruyu, Şubat 2017’de yaptığım röportajda, önce ‘Homo Sapiens’, sonra ‘Homo Deus’ ile tüm dünyayı kasıp kavuran, Türkiye’de bestseller raflarından hâlâ inmeyen İsrailli tarihçi-yazar Yuval Noah Harari’ye sormuştum: “Peki insanın, günün birinde kendi yarattığı bu algoritmaların ya da yapay zekânın kölesi olma ihtimali var mı? Tarım devriminin kölelik getirmesi gibi bir durum kastetmiyorum; insan ikinci sınıf bir yaratık haline gelebilir mi?” Yanıtına “Hayır, köle olacağımızı zannetmiyorum” diye başlamıştı Harari. “Olmayız çünkü bizden daha zeki olan yapay zekânın işine çok yarayacağımızı sanmam. Bugün bile örneğini gördüğümüz esas mesele, otoritenin ellerimizden kayıp gitmesi ve algoritmalara geçmesi. Algoritmaların bizim adımıza karar verecek olması.”

Yazar : FederalBey Türkiye

YORUMLAR

  • 0 Yorum