Gelecekte Yazı Olacak Mı? Emin Değilim…

Deniz Yüret
Hazırlayan: Meriç Tuncez

Konumuzla alakalı araştırma yaparken 2015 yılında Google’ın siyahi bir çiftin fotoğrafını goriller olarak etiketlediğine dair bir haberle karşılaştım. Benzer şekilde Google’ın iş önerilerinde bulunurken erkeklere kadınlara oranla altı kat daha yüksek maaşlı işler önerdiğine dair bir haber var. Bu bilgiden yola çıkarsak yapay zekânın algoritma kaynaklı (algorithmic) önyargıdan yani onu üreten kişinin ön yargılarından uzaklaşması mümkün mü? Ya da nasıl mümkün olabilir?

Öncelikle programın niye bu ön yargılara sahip olduğunu kısaca anlatayım. Bu bahsettiğin teknolojilerin hepsi eski usul “Yazılım 1.0” diyebileceğimiz birilerinin oturup bilgisayara bir şeyler programlaması şeklinde geliştirilmiyor.

Bana 20 sene önce bu soru sorulsaydı derdim ki “Bunu yazan programcı ırkçı ya da cinsiyetçi. Dolayısıyla bu adamı işten atın.” Ama şu anda artık bu yeni teknolojiler bu şekilde geliştirilmiyor. Onun yerine örneklere bakarak istatistikler üzerinden geliştiriliyor.

Yani iş bulma ya da resimden bir şeyler tanıma konusunda bir sürü etiketlenmiş veri hazırlıyorsunuz. Bu etiketlendirilmiş veriyi bilgisayara veriyorsunuz. Bilgisayar milyonlarca örnek üzerinden birtakım şeyleri öğrenip ondan sonra sizin sorularınıza cevap vermeye başlıyor.

Şimdi verdiğiniz veride bir önyargı var ve orada cinsiyetçi ya da ırkçı birtakım şeyler varsa programın önyargıyı da bu algoritmaların içine alması gayet normal. Bu durum algoritmanın suçu değil, verdiğimiz verinin suçu. Dolayısıyla biz eğer bu önyargı konusunda gerçekten duyarlı davranmak istiyorsak veriyi ona göre hazırlamamız lazım.

Yani bilgisayarda onu eğitim verisi olarak kullanmadan önce veriyi dengelememiz lazım. Benzer bir olay geçen sene Microsoft’ta yaşandı. Bir “sohbet robotu” (chatbot) hazırlayıp bunu Twitter’a saldılar. 24 saat sonra kapatmak zorunda kaldılar çünkü insanlardan birçok kötü, ırkçı cinsiyetçi dil elemanlarını öğrenip bunları taklit etmeye başlamıştı.

Yani bu öğrenme algoritmalarını masum birer bebek olarak düşünebiliriz. Ona ne öğretirsek o da aynı şekilde onu tekrarlamayı öğreniyor. Dolayısıyla bu öğretmenin kabahati olabilir.

Örneğin bir AlphaGo (Google DeepMind tarafından geliştirilmiş Go oyununu oynayan bir program) problemini ele aldığımızda bizim kazandığımız nokta belli. Yani nasıl kazanabileceğimiz o oyunda belli ve skorumuz var. Ama mesela bir tasarım probleminde aynı şekilde olmuyor bu, birçok farklı sonuca gitme yolu olduğunu görüyoruz. Örneğin bir iklim değişikliği için tasarım yapılacağı zaman “yapay zekâ”yı nasıl kullanabiliriz? Bizim çıktımız ne olacak burada? Yani sadece “iklimdeki sıcaklığı düşürmek” mi çıktımız? Yoksa başka bir şey mi? Yani böyle karışık bir problemde sonuçlarını ve neyin doğru olduğunu bilemediğimiz durumlarda biz yapay zekâyı ya da “özdevimli öğrenme”yi (machine learning) nasıl tasarımlarımızda kullanabiliriz?

Bu bence şu anda dahi çözümlenememiş bir soru. Çünkü yapay zekâ modellerini eğitirken verdiğimiz verinin yanı sıra bir de “objektif fonksiyon” (objective function) ya da “hata fonksiyonu” (error function) denilen bir değer atamamız gerekli.

Yani genel olarak “Ben sana böyle girdiler verdiğimde böyle çıktılar istiyorum” gibi bir eğitim verisi veriyoruz bu öğrenen programlara. Ama onun yanı sıra “Sen bu istediğim çıktıyı değil ondan biraz daha farklı bir çıktı üretirsen de ben senin hata oranını şu şekilde ölçeceğim, senin objektif fonksiyonun bu olacak.” şeklinde tasarımcının karar vermesi gerekiyor. Dolayısıyla neyi en uygun şekilde kullanacağımıza bizim karar vermemiz lazım. Bu dediğim gibi çok kolay bir problem değil. Özellikle iklim değişikliği gibi karmaşık konularda problem daha da zorlaşıyor.

Elon Musk’ın bu “Robotlar dünyayı fethedecek.” senaryosunu aydınlatabilecek çalışmalar yapılmakta günümüzde ve araştırmacıların en çok kaygılandığı konu bu. Yani biz yapay zekâya bir hedef belirlerken o hedef belirleme konusunda çok dikkatli olmazsak bu sistemlerin bizim o anda hiç beklemediğimiz birtakım yönlere gitmesi mümkün.

Diyelim ki dünyanın ısısını düşürmeyi bir hedef olarak verirsek bize verdiği çözümler yeni bir buz çağına sebep olabilir. Ama diğer yandan bu yeni bir problem değil ve yapay zekâya mahsus bir problem de değil. Geçenlerde yapay zekânın bu objektif fonksiyon problemi ile finansal marketleri ya da politik sistemleri karşılaştıran bir makale okudum. İnsanlar uzun zamandır karmaşık sistemler tasarlamakta güçlük çekiyorlar.

Dolayısıyla gayet iyi niyetlerle tasarlanmış Avrupa Birliği ya da Menkul Kıymetler Borsası gibi karmaşık sosyal sistemler düşünün. Bu sistemlerde de tasarlayanların kötü bir niyeti olmamasına rağmen sistem kendi dinamikleri içerisinde hiç beklemediğimiz birtakım sonuçlara sebep olup bize zarar verecek yönlere gidebiliyor.

Dolayısıyla bu bence üzerinde çalışmamız gereken bir sorun. Bunun bu arada teknik olarak kullanılan adı “hizalama” (alignment). “Sizin değerlerinizle geliştirdiğiniz sistemin ya da programın değerlerinin birbirine paralel hale getirilmesi nasıl mümkün olabilir?” Bu halen üzerinde çalışılan açık bir problem.

Yapay zekânın gelişmesi konusunda yüklenen “büyük veri”nin (big data) boyutu önemli bir unsur. Bu noktada o yüklenen büyük veri “çevrimdışı” (offline) bir veri mi? Bunun yerine internete bağlanarak da büyük veri beslemesi yapılabilir mi?

İkisi de mümkün. Orada herhangi bir sınırlama yok. İnternetten direk takip eden ve internet üzerinden bilgi toplayan ve buradan öğrenmeye devam eden sistemler de var. Ama örneğin görüntü tanıyan sistemler de mevcut.

Birtakım pratik sebeplerden dolayı kendi “sabit disk”ine (harddisk) yüklenmiş veriyle çalışan problemler de var. Ama yani öğrenmenin bu sistemlerde sürekli olmaması için bir sebep yok.

Hizalama probleminden bahsettiniz. Biraz buradaki sorunun yapay zekâyla alakalı olduğunu düşünebiliriz. Bu problemin kurduğumuz fikirlerin bütüncül olarak işlenmemesi, biraz eklenti olarak kalmaları ve sonradan da tam amacı belli olmadan oraya dahil edilmeleriyle alakalı olabileceğini düşünebiliriz. Böyle bir gerçeklikten bahsedebilir miyiz?

İkinci olarak da eğer böyle bir gerçeklik varsa aslında bir projeyi düşünürken, bir fikrimiz varken bunları nasıl daha iyi bir şekilde bu projeye bütüncül anlamda yansıtabiliriz? Yani “Sonradan böyle bir şey öğrensin ve böyle bir sonuç versin.” değil de “Bu sistemi öğrensin ve bana sonuç dediği şey aslında benim aradığım çözüm olsun.”

Bunun tek bir cevabı olduğunu sanmıyorum. Aklıma gelen basit bir örnek vereyim. Mesela benim “Otomatik Öğrenme, Derin Öğrenme” dersimde kullandığım örneklerden biri bu. Diyelim ki “röntgen cihazından kanser tanısı yapan bir program” geliştiriyorsunuz.

Bu program hiçbir zaman yüzde yüz hassas olmayacak ve hata yapabilecek. Normalde “doğruya ve yanlışa” (false positive-false negative) aynı hata oranını veren bir objektif fonksiyonu en uygun şekilde kullanabilirsiniz. Ama bu hatalı olur. Niye?

Çünkü “gerçekten hasta olan birini teşhis etmemenin” maliyetiyle “hasta olmayan birini yanlışlıkla teşhis etmenin” maliyeti birbirinden farklı. Birinci durumda o insanı ölüme mahkûm ediyorsunuz. İkinci durumda belki birtakım farklı testler yapıp o sonucun doğrulanması gerekiyor. Dolayısıyla bir çeşit hata diğer çeşit hatadan çok daha kötü olabiliyor.

Eğer sistemi eğitirken bu bilgileri objektif fonksiyonunuza koymazsanız sistem de sizin için yanlış olan, değerlerinize aykırı sonuçlar verebilecektir. Dolayısıyla burada yine tasarımcıya iş düşüyor. Yani tasarımcının böyle bir sistemi eğitmeye başlamadan önce “neyi en uygun şekilde kullanacağını” (optimize) çok iyi bilmesi lazım.

Örneğin bir yapay zekâ problemi hayal edelim ve makinenin sunduğu çıktının üç seviyeli olduğunu varsayalım. “Hasta çok sağlıklı” ibaresi çıktılardan biri olsun. Burada aslında çıktı verme sürecini yöneten bir yapay zekâ mevcut. Örneğin internette reklamlar var ve bizim ne aldığımızı takip ederek bize reklam verebiliyorlar.

Yakın zamanda bir şeye çok bakmışsak karşımıza o çıkabiliyor. Şimdi diyelim ki ben çok hevesli bir insanım. Gidiyorum ve paten alıyorum kendime. Sonra vazgeçiyorum ve başka bir şey alıyorum. Patenin bana göre olmadığını fark ediyorum. Ama önümdeki iki hafta boyunca karşıma sadece paten reklamı çıkıyor. Bu varsaydığımız problemde sizce yapay zekânın önemi nedir?

Bu durum karşıdaki sistemin kötü eğitilmesi ya da henüz daha yapay zekânın yeterince gelişmemiş olmasıyla alakalı olabilir. Yani oradaki sistemin amacı, kullanıcının o linkin üzerine basma ihtimalini en yüksek seviyeye getirebilecek reklamlar göstermek.

Bahsedilen durum benim de başıma geliyor. O durumlarda ben de basmıyorum linke. Dolayısıyla o sistem aslında kötü bir karar vermiş oluyor. Bu alanda yapılabilecek birkaç doktora değerinde çalışma potansiyeli var.

Giyilebilir teknolojilere moda perspektifinden baktığımızda fark ettiğimiz şeylerden biri de şu oldu: “insan-bilgisayar etkileşimi” (HCI: human-computer interaction) alanının konularından biri de “giyilebilir teknolojiler” (wearable technology). Burada özellikle teknoloji alanındaki insanlar “Giyilebilir teknolojiler potansiyeline ulaşmıyor, kullanıcı tarafından tercih edilmiyorlar.” gibi bir farkındalığa erişiyor. Ve burada modanın rolü ne olabilir diye odaklanıp sorular soruyorlar.

İki tarafı bir araya getirmeye çabalıyorlar. Ama burada “Modaya daha uygun giyilebilir teknoloji ne olabilir?” sorusu, cevabı kolay bir soru değil çünkü moda etkenlerden sadece birisi. Altında birçok kültürel, sosyal, coğrafi ve politik katmanlar var.

“Modaya dair zekâ” (fashion intelligence) ya da “modayı okumak” (fashion literacy) diyebileceğimiz şey yani neyin moda olduğu veya neyin moda olmadığı konusu makineye öğretilebilir mi ve onun tarafından karar verilebilir bir hale getirilebilir mi ilerleyen zamanda? Ya da şu anki teknoloji buna imkân sağlar mı?

Olabilir. Bence bu çok ilginç bir problem. Üzerinde çalışılıp çalışılmadığını bilmiyorum. Ama şu anda son geldiğimiz teknolojide örneğin bu aletlere bir fotoğraf verip “Bana bu fotoğrafı Van Gogh stilinde bir resme çevir.” diyebiliyorsunuz. Ve gerçekten Van Gogh onu yapmış gibi bir resim elde edebiliyorsunuz.

Yani “stil transferi” (style transference) denen bir alan var mesela. Belli bir şeyi belli bir resmin üzerine belli bir stilde transfer edebilme durumu stil transferi olarak tanımlanıyor. Dolayısıyla görüntü işleme ve görüntü algılama konusunda bir hayli çığır açmış durumdayız şu anda. Aynı şeyin modaya uygulanamaması için bir sebep görmüyorum.

Moda uzayını iyi analiz edebilen ve oradaki eğilimlerin nereye doğru gittiğini tahmin edebilen ya da şu an için hangi ürünün daha çok tutup tutmayacağını tahmin etmeye çalışan modeller var. Bence üzerinde çalışılabilir bir doktora konusu da bu.

Sistematik tasarım üzerine 1960’lardan beri tasarımcılar çalışıyor. Sistematik tasarım bağlamında, insan değişkenliğine adaptasyon ve o değişkenliğe göre tavır alma konusunda hiçbir çalışma yapılıyor mu? Ya da bu mantıken mümkün mü?

Çalışma yapılıp yapılmadığını bilmiyorum. Ama mantıken mümkün. Çünkü bu aletlerin çalışma şeklinde sonuçta şunu görüyoruz: Belli bir noktada bu aletler ilgilendiğiniz varlıkları bir vektör uzayında noktalara yerleştiriyor.

Yani sizin, mesela giysi tasarımınızı bu tasarımlar uzayında kendi kurduğu bir uzayda bir nokta olarak görebiliyor. Dolayısıyla biz zaman içerisinde değişen tasarımlarla bunu eğitebilirsek o tasarım uzayında o noktaların nasıl bir “yörünge” (trajectory) üzerinde ilerlediğini bir ihtimal keşfedip, bir sonraki adımda bunun nereye doğru gittiğini bize göstermesini sağlayabiliriz diye düşünüyorum.

Elimizde yeterince veri olursa bence gayet güzel bir proje olabilir bu.

Yapay zekânın sinemadaki temsilleri bağlamında baktığımızda 80’lerde 90’larda yapay zekâ temalı Blade Runner, Robocop, Terminator gibi filmler çekildi örneğin. Burada inanılmaz büyük bir hayal gücü söz konusu. Robotların veya yapay zekânın gidebileceği yerleri gösteren işaretler alıyoruz. Ama böyle zaman geçtikçe bir yandan o hayal gücü kısmı azalıyor, diğer yandan hiç de varmak istediğimiz yere ulaşmış halde değiliz.

Sizce bu gerçek ile bahsettiğimiz filmlerde gösterilen gerçek neden farklı? Kırk yıl öncesinden böyle bir şey hayal ediliyor ve henüz oraya ulaşmamıza çok var. Diğer taraftan baktığımızda yapay zekânın sinemadaki temsilleriyle ilgili ne düşünüyorsunuz? Çünkü sıradan insanlar olarak biz biraz filmlerden öğreniyoruz yapay zekânın ne olduğunu.

Bilim kurgu filmleri bizim yapay zekâ araştırmacıları olarak en büyük düşmanımız. Çünkü yaptıklarımız film izleyicisine yeterli gelmeyebiliyor. Diyorlar ki “Bu teknolojinin 80’lerde daha iyisini filmde görmüştük zaten.

Bu alet çalışmıyor.” Ama son zamanlarda bir ilgi mevcut bu konuda. Terminator filmindeki teknoloji tamamıyla James Cameron’ın hayal gücüyle ürettiği ve bu işin mühendisliğini ya da yapılabilirliğini düşünmeden sadece aklına gelen şeyleri ekrana döktüğü bir film. Bir başka örnek: Her diye bir film çıktı ya da Ex-Machina çıktı.

Yani gittikçe bence arka tarafındaki teknolojilere biraz daha kafa yoran insanlar tarafından yazılmış ve önümüzdeki belki yirmi otuz yıllık zaman süreci içerisinde gerçekten mühendisliğini çözebileceğimiz birtakım teknolojileri insanlar sinemaya getirmeye başladı.

Belki de senin dediğin gibi bir “noktada birleşme” (convergence) yaşanabilir. Yani bilim kurgu filmlerindeki robotlar biraz daha gerçekçi hale gelip bizim yapay zekâ da aynı hızla ilerlemeye devam ederse önümüzdeki on yirmi yıl içinde bir noktada kesişebilirler diye ümit ediyorum.

Tasarımcıların çalıştıkları konulardan biri de önyargılar. Örneğin “jestlerle ürün kontrolü” konusu gibi. Ya da mühendisler ses ve tonlamaya bakarken araştırmalarında, tasarımcı da el hareketlerini inceleyebiliyor. Bu durumda iki tane jest alternatifi sunulabilir. Bir tanesi bu “ışıkları açma” jesti olsun. Öbürü de “kitap kapağı açmak” gibi bir jest olsun.

İnsanlara ikisini de sunup “Hangisini seçerdiniz?” diye sorulduğunda “Öbürünü seçerdim.” diyorlar örneğin. “Neden daha güzel geldi? Acaba aklında mı daha çok kaldı?” gibi o noktada bir sürü soru sormamız gerekiyor ki neden katılımcının bu seçimi yaptığını anlayabilelim. Bu örnek bağlamında, tasarım sürecinde kullanıcılarla soru-cevap şeklinde ilerleme gibi bir yöntemden söz etmek mümkün. Bir çeşit gözlem yapılıyor.

Soru-cevap kısmında da mesela bir soru soruluyor. Bazen çok yüzeysel bir cevap alınabiliyor ve bu durum sizin görüşmenizin sonucunu da aslında çok da yönlendirici bir tasarıma götürmüyor… Dolayısıyla soru-cevap esnasında biz kişinin cümlesindeki bazı şeyleri çekip doğaçlama hareket de edebiliyoruz. Bu açıdan baktığımızda ve sizin de dil üzerine çalıştığınızı göz önünde bulundurursak “duygu analizi” (sentiment analysis) konusu öne çıkıyor. Bu alan ne kadar gelişmiş durumda?

Bilgisayara bilinç aktarımı mümkün mü? Sizce “duygu analizi” ne kadar bu noktada bir yol gösterici olabilir veya ne olursa bilincimiz bilgisayara aktarılabilir?

Bana zor bir süreç gibi geldi bu. Çünkü iPhone’ların ilk çıktığı zamanı hatırlıyorum. Steve Jobs iPhone’la ortaya çıktığında teknoloji CEO’ları ve sokaktaki insanlar dahil pek çok insan “Ya bu ne işe yarar? Kimse 500 dolar verip de saçma sapan bilgisayarı cebinde taşımaz.” diyordu.

Dolayısıyla insanlar ne istediklerini her zaman bilmeyebiliyorlar. Şu anda cebinde iPhone benzeri bir şey taşımayan kişi kalmadı. Dolayısıyla direk insanlara bunu sormak ne kadar sağlıklı sonuç verir o konuda emin değilim. Diğer taraftan “duygu analizi” doyurucu bir alan. Sonuçta kullanılan kelimelere cümlelere bakıp oradaki duyguyu inceliyorlar.

Diyelim ki tipik bir veri seti olarak IMDB’deki (İnternet Film Veri Tabanı) film eleştirilerini duygusal bağlamda değerlendiren çalışmaları ele alalım. Araştırmacıların en sevdiği veri setlerinden biri bu. IMDB’de biliyorsunuz binlerce filmin bilgileri ve filmler hakkında insanların yazdıkları küçük yorumlar var. “Bu yorumlara bakarak bu insan bu filmi sevmiş mi sevmemiş mi belirleyebilir miyiz?” Bunu makineler şu anda %85 gibi bir oranda doğru tahmin edebiliyorlar.

“Bu insan tam olarak ne düşünüyor? Neden bu filmi sevmiş ya da sevmemiş?” vs. oralara daha yeni yeni geliniyor. Dolayısıyla başlangıç safhasında bir teknoloji diyebilirim.

Popüler olmasının sebebi başlangıç safhasında olmasına rağmen kendine pek çok uygulama alanı bulmuş olması aslında. Örneğin finans alanında insanlar yüzlerce gazeteyi birden takip edemiyorlar. Ama bilgisayarlar edebiliyor.

Dolayısıyla “Her şirketle ilgili ne söylenmiş? Bu söylenen şeyler pozitif mi negatif mi?” onu merak edebiliyorlar. Veya ürün sahibi firmalar ya da cep telefonu şirketleri kampanya çıkarıyorlar.

İnsanlar bu kampanya konusunda “Facebook’ta Twitter’da ne demiş, neyi beğenmiş?” Bunu merak ediyorlar. Yani bu tip analizler de şu anda işe yarıyor. Ama bahsettiğim yazılımlar insan kadar başarılı değil.

Yani bir insana verseniz aynı metni çok daha kesin bir sonuç alabilirsiniz. Ama çok hızlı bir şekilde işlem yapabildiği için pratikte işe yarayan bir teknolojik çözüm bu diyebiliriz.

Diğer konuya gelirsek: Bilinci bilgisayara aktarma konusu. Şu anda çok yakın değiliz ama bunu yapmamız için fiziksel bir engel olduğunu düşünmüyorum. Dün Sean Carroll’ın -benim sevdiğim bir fizikçi- bir konuşmasını izliyordum Caltech’de. Carroll, kozmolojiyle uğraşan bir insan. Pek çoğumuzun belki yeterince farkında olmadığı bir şey bu fizikte çünkü popüler medyayı takip ettiğinizde genelde bilmediğimiz şeylerden bahsediliyor.

“Karanlık madde” (dark matter) nedir bilmiyoruz. “Karanlık enerji” (dark energy) nedir anlamıyoruz. Kara delikler nasıl çalışıyor bilmiyoruz, vesaire. Durmadan bunlar yazılıyor ama yazılmayan çok önemli bir şey var. O da şu: Bulunduğumuz odanın içinde olan her şeyi şu anda yüzde yüz biliyoruz.

Yani bu odanın içinde fizikçilerin bilmediği herhangi bir şey yok. Bu odanın içindeki bütün parçacıklar, bütün kuvvetler her şey fiziğin temel kuralları tarafından yüzde yüz bilinir durumda.

Dolayısıyla size bir arkadaşınız gelip telepatiden ya da odun parçaları kullanarak su bulmaktan falan bahsederse ona yüzde yüz güvenle diyebilirsiniz ki fizikçiler bu işi çözdü artık.

Kara deliklerin ne olduğundan tam emin değiller ama bu odanın merkezinde ne olduğunu biliyoruz. Eğer bahsedilen gibi fiziksel olmayan bir güç ya da parçacık olsaydı onu bugüne kadar görürdük.

Yani böyle bilmediğimiz şeyleri bulalım diye oldukça yatırım yapıp uğraşıyoruz ve bulamıyoruz bir türlü. Onun için beynimizin içinde de çok gayri-fiziksel bir şeyler döndüğünü sanmıyorum. Dolayısıyla bilgisayar kapasiteleri yeterince artınca belki “kuantum hesaplama” (quantum computing) gerekecek mi bilmiyorum ama prensipte bunun olmaması için bir sebep yok.

Ama pratikte hiçbir zaman buraya gelemeyebiliriz. Çünkü böyle bir şeyin maliyeti ya da bunun için gereken enerji, materyal, mühendislik gücüne hiçbir zaman ulaşamayabiliriz diye düşünüyorum.

“Duygu analizi” ile alakalı olarak bu alanın geleceğiyle ilgili bir görüşünüz var mı? Duygular gibi çok öznel ve insanlara özel olduğunu düşündüğümüz bir konudan bahsederken “Aslında hiçbir zaman makinelerin ya da sistemlerin bunu yüzde yüz tanıması mümkün değil.” gibi düşüncelere sahip olan insanlarla karşılıyoruz. Sizce duygular ve benzeri konularda sistemlerin öğrenmesi açısından gerçekten böyle bir kısıtlama var mı?

Şöyle bir alıntı verelim: “Saygıdeğer yaşlı bir bilim adamı size bir şeyin imkânlı olduğunu söylüyorsa ona inanın. Ama imkânsız olduğunu söylüyorsa ona inanmayın.”

Dolayısıyla yani “Belli bazı şeyler imkânsızdır. Ben bunun nasıl olabileceğini hayal bile edemiyorum.” diyen insanlara verilecek tek cevap “Senin hayal gücün kısıtlı. Dolayısıyla bırak başkaları çalışsın bu konuda.” olurdu. Yani imkânsızlık iddiaları çok güçlü iddialar.

İmkânsızlık iddialarına inanmamız için ortalıkta ya bir matematiksel kanıt olması lazım ya da enerji dönüşümü gibi çok iyi bildiğimiz fiziksel birtakım prensiplerin çiğnenmesi lazım. Bu ikisinin dışında kalan her şeyi ben tamamıyla insanların hayal gücünün kısıtlılığına veriyorum, özellikle duygu konusunda.

Duygu tanıma konusunda bence en büyük problemlerden biri şu andaki duygu modellerimizin çok basit olması. Yani genelde bu tip makaleleri okuduğumda -yazıdan ya da görüntüden duygu tanıma ile ilgili- şunu görüyorum: İnsanlar 1960’larda psikologların yazdığı birtakım basit duygu modellerine yöneliyorlar, “Duyguların beş tane boyutu vardır.

Bu boyutların içerisinde…” vesaire. Bunlar tamamıyla o zamanki psikologların kafalarından uydurduğu ve gerçekten ilgisi var mı yok mu bilemediğimiz şeyler. Beyinde bunu sağlayan mekanizmalar, kimyasallar nasıl çalışıyor?

Onun tam mekanizmasını bilmediğimiz için karşıdan bakan bir teorisyenin ortaya koyduğu bazı “yapı”larla (framework) çalışıyoruz. Bu yapılar doğru olmayabilir. Bu yapılar doğru olmadığı için biz bu yapılarla bilgisayarı eğitmeye çalıştığımızda da onun kısıtlamalarını direk ona aktarıyor olabiliriz.

Dolayısıyla evet! Yanlış teorilerle çalıştığımız sürece belli bir limite her zaman vurmamız söz konusu. Ama yine prensipte bunun aşılamayacağı düşüncesinde değilim.

Otuz yıl yapay zekâ çalışmak demek hakikaten oldukça vakit harcamak anlamına geliyor. İnsanın yaptığı şey de kendini geri şekillendirir. Sizin zekâya dair en temelinde en azından kendi düşünme şeklinizde herhangi bir değişim, farkına vardığınız bir şey oldu mu?

Çünkü neyle çalışırsan, nasıl düşünmeye çalışırsan, kendi düşünme yapın da kendi beynin de ona evrilir diye düşünebiliriz. Siz de kendinize dair bir derinlemesine düşünme yapacak olursanız bu otuz yıllık süreç için ne demek isterdiniz?

Benim üzerimdeki en büyük etkisi şu oldu diyebilirim: Bütün insanlara hatta tüm canlılara ne ve kim olduklarından bağımsız olarak saygım çok büyük miktarda arttı.

Çünkü gerçekten bu tip mekanizmaları oturup aynını yapmaya çalışıp ne kadar karmaşık olduğunu görünce şunu diyorum: “Bu çocuğun kapasitesi düşük. Dersleri iyi yapamıyor.” vs. falan diyerek eskiden değersizleştirebileceğimiz bir kişinin bile ne kadar mucizevi bir yaratık olduğunu görüyoruz.

Onun için şu anda insanların böyle birbirleriyle olan değer tartışmalarını çok absürt buluyorum. Yani hepimiz çok ayrıcalıklı yaratıklarız ve bunun kıymetini yeterince bilmiyoruz. Bunu çözümlemeye çalıştıkça insan biraz daha farkına varıyor bunun diyebilirim.

Yani insandan çok uzak dememek lazım çünkü yapay zekânın iki yanı var. Hocam vaktiyle bana bu şekilde tanıtmıştı: Mühendislik tarafı var, bir de bilimsel tarafı var. Mühendislik tarafı “Şu anda gördüğümüz birtakım problemleri çözmek”, “İşe yarar robotlar yaratmak” vs. ile ilgili olan taraf. Ama bilimsel tarafı da aslında birtakım “hesaba dayalı” (computational) modellerle psikolojiyi daha iyi anlamaya çalışmak.

Yani biraz önce söylediğim gibi psikologların oturup “Beş tane duygu boyutu vardır. Bunlar da şöyledir böyledir.” diye bir şeyleri yazması başka, sizin o modeli bir bilgisayarda uygulamanız ile gerçekle karşılaştırma yapıp bunun ne kadar gerçekçi bir model olup olmadığını test etmeniz başka.

Bunu yapabilmek için birkaç yöntem var. Ya insanların beynine girip bakacağız, anlayacağız, “Emar”larla (MRI) görüntülemeye çalışacağız ya da bunu yapamadığımız sürece oturup onun daha basit modellerini bilgisayarda uygulayıp, onun ürettiği davranışlarla insanı karşılaştırarak anlamaya çalışacağız.

Yani yapay zekânın belki de çok fazla ortalıkta şu anda görünmeyen diğer yanı bu. Yapay zekâya giren benim tanıdığım çoğu kişinin ana motivasyonu aslında insan psikolojisini daha iyi anlayabilmek.

Bizler “İnsanlara öğrettiğimiz gibi öğretebilir miyiz?” gibi sorular soruyoruz sistemlere. İnsanların öğrendiği gibi öğretmeye çalışmamız sizce bir kısıtlama olabilir mi? Yani mesela daha iyi öğrenme yöntemleri varsa bunları gözden kaçırıyor olabilir miyiz? Bunu aslında en iyi bildiğimiz şey olduğu için mi yapıyoruz? Yoksa farklı sebepleri de var mı?

Şimdi öncelikle insana öğrettiğimiz gibi henüz öğretmeyi beceremiyoruz diyerek başlayayım. Örneğin resimlere bakarak bu resmin içinde ne olduğunu anlayan programlardan bahsetmiştim.

Bu programların eğitilmesi için gerekli olan veri seti bir milyonun üzerinde resim içeriyor ve bu resimlerin içindeki her şeyin birtakım insanlar tarafından etiketlenmiş halleri de eğitimde önem taşıyor. Bu kadar resmi ve “girdi”yi (input) bir bebek kendi hayatında hiçbir zaman görmüyor.

Ya da başka bir örnek vereyim: Otomatik tercüme diyelim. İngilizceyi Türkçeye tercüme etmeye çalışıyoruz. Böyle bir modeli eğitebilmek için bunu yapacak olan programın yaklaşık yüzlerce milyon kelimelik İngilizce-Türkçe hazır tercüme edilmiş örneğe ihtiyacı var.

Ben yıllardır bunu toplamaya çalıştığım için bu sayının ne anlama geldiğini gayet iyi biliyorum. Bu sayı yaklaşık 10.000 kitap ya da on yıl boyunca Türkiye’de basılmış bütün gazetelerin metinleri gibi bir sayı. Hiçbirimizin hayatımızda yani bütün gecemizi gündüzümüzü yirmi dört saat okumaya harcasak bile bu kadar metni almamız mümkün değil.

Dolayısıyla şu anda özetle durum şu: Gelebildiğimiz en son noktada öğretmeye çalıştığımız makineler insanlara kıyasla aynı problem için daha fazla veriye ihtiyaç duyuyorlar. Yani bizim on örnekle öğrenebildiğimiz şeyi o on milyon örnekle öğrenebiliyor şu anda.

Diğer yandan öğrenebilmek bence insan gibi olsun olmasın gerçekten güçlü bir fikir. Çünkü alternatifi bunun mühendislik tasarımı. Bu şekilde çözmeye çalıştığımız pek çok problemi çözemediğimizi gördük.

Ses tanıma, görüntü tanıma, otomatik tercüme… Yani biz hiçbirinde makinelere bir şey öğretmeye çalışarak başlamadık. Bunların hepsine ilk başta -1970’lerde- büyük bir kendine güvenle “Bu problemi en iyi biz biliriz. Dille ilgili bir şey mi yapılacak? Çağırın birtakım dil bilimcileri (linguist) ya da görüntüyle ilgili birtakım şeyler yapılacaksa bunu çalışan nörologları çağırın. Onların bilgilerini oturup programlayın. Ve oradan bir çözüm çıksın.” diye başladık.

Ama bu projelerin hepsi başarısızlıkla sonuçlandı. Yani demek ki bu konuları bildiğimizi sandığımız kadar bilmiyormuşuz, o ortaya çıktı. Onun yerine direk temel veriden öğrenmeye başlayan yani insanların teorileriyle kirlenmemiş ve direk veriye bakarak bir şeyler öğrenmeye çalışan makineler şu anda daha başarılı oldu.

İçinde bulunduğumuz devrimi bu algoritmalar ve makineler götürüyor. Ama dediğim gibi onların da kısıtlaması şu anda insanların öğrendiği gibi değil de onlardan katbekat daha fazla veriyle ancak öğrenebilmeleri durumu. Ve insanların öğrenebildiği gibi öğrenme hala açık bir araştırma konusu.

Yani ben bir çocuğa hayatında ilk defa iki tane kedi köpek gösterdiğimde hemen kedinin köpeğin ne olduğunu anlıyor. Ama bunu yapabilecek bilgisayar şu anda yok.

Bir de insanların sürekli gözlem gibi bir altyapısı oluyor. Yani kediyi köpeği görmeden önce saatlerce, günlerce, aylarca, yıllarca bir şeyler görmüş oluyorlar. Herhalde makinelere bunu sağlamak oldukça zorlu mu?

Zor değil. Makinenin kamerasını açıp biz de etrafımızda dolaşabiliriz ama onun üzerine nasıl bir algoritma koyarsak bunun herhangi bir faydası olacağı hala çözülmüş bir problem değil.

Bu “özdevimli öğrenme”nin (machine learning) piyasaya dokunduğu taraflarla ilgili olarak içerik ve kullanıcı deneyimi üzerine düşünürsek, örneğin Amazon, Spotify, Netflix gibi şirketler de size içerikler sunuyorlar.

Yani “Bunları beğeniyorsunuz, şunları takip ediyorsunuz.” gibi durum değerlendirmeleri yapıp gayet uygun içerikleri sizlerin önüne getiriyorlar. Biraz daha ürün bazına geldiğimizde de yine sizin kullanma modelinizi algılayan akıllı termostatlar karşımıza çıkıyor.

Yani “Bu sadece bizde bir kullanım modeli algılıyor ve bunun bir çıktısını getiriyor.” gibi görüyorum ben. Sizce özdevimli öğrenme bir tasarımcı tarafından nasıl kullanılırsa bir tasarım nesnesi üretmeye yarar ve hayatımızda da bu değişkenliği yine aynı şekilde ürünler üzerinde görebiliriz?

Problemine bağlı değişir. Yani çok geniş bir soru olduğu için bu çok basit bir cevap veremiyorum.

“Nasıl bir tasarım problemiyle uğraşıyorsun? Orada sana nasıl bir asistan yardımcı olabilir?” Bugün konuştuğumuz bu teknolojilerin sana yardımcı olabilecek bir araç ortaya çıkarabilmesi için öncelikle iyi tanımlanmış bir problem, o problemle ilgili veri ve o verinin girdisi ne çıktısı ne olacak düşünülmesi gerekli.

“Ne gibi bir amaçla bu eğitim verilecek?” Bu temel sorulara cevap verebildiğimiz zaman öyle yeni bir ürün ortaya çıkarabiliriz. Ve bu yeni ürün bir ihtimal senin tasarımına yardımcı olabilir ama onun ne olduğuyla ilgili tasarımcı olmadığım için ben de şu anda daha net bir şey söyleyemiyorum.

Bir tasarımcıya yardımcı olarak çalışan bir sistem varsayalım: Örneğin bir makineyle bir sohbet içerisinde sizler tasarım yapabilirsiniz. “Artırılmış” (augmented) bir şekilde sizin yeteneklerinizi geliştirebilir. Çıkan sonuçta özdevimli öğrenme ve akıllı yapay zekâ taşıyan asistanın ötesinde neler olabilir acaba?

Her zaman kriter olmadığına katılmıyorum. Yani örneğin rüzgâr sörfü yelkenlerini tasarlayan insanlar oturup değişik şekilleri bilgisayar ortamında deneyerek en çok rüzgârdan güç üretebilecek şeklin ne olduğunu birtakım bilgisayar araçlarıyla buluyorlar değil mi? Ya da kendi kendine giden arabaların çok net birtakım amaçları var: insanları ezmemek, oraya buraya çarpmamak gibi…

Dolayısıyla her tasarım probleminde aslında senin sağlamak istediğin birtakım kriterler var. Ve artırmak istediğin birtakım objektif fonksiyonlar var. Bunlar bence her problem için biraz daha derin düşünüldüğünde ortaya çıkarılabilir. Onlar ortaya çıktığı zaman da bu tip araçların kullanılması mümkün olabilir.

TEDx’teki (Her iki yılda bir Kaliforniya, Monterey’de düzenlenen bir konferans) bir konuşmada gördüm: Örneğin bir tane insansız “otomatik uçak” (drone) tasarımı, yazılımı yapmışlar ve makine size aerodinamik açıdan en uygun uçakları üretiyor.

Üç boyutlu bir şekilde yapıyor bunu. Sonrasında en uygun olduğunu düşündüğü makineyle karşılaştırıyorlar ve bakıyorlar ki insansız uçak, kanatlı sincabın kemik yapısıyla uyumluluk gösteriyor.

Yani burada aslında yine insanın “biyomimikri” (biomimicry) kullanarak yapabileceği bir şey de mümkün. Bakıyor ve “Kanatlı bir sincap uygundur” deyip “Biz de bunu yapabiliriz.” diyorlar. “Zaten olan verinin ötesinde başka neler olabilir?” gibi bir spekülasyon…

Bizden daha farklı yetileri olan, bizim göremediğimiz bazı şeyleri görüp de gösterebilecek, o süreçleri anlatacak bir zekâ tasarlamak mümkün mü?

İki örnekle cevaplamaya çalışayım: Birincisi sincap örneğinde makinemizi sonuçta biz doğal ortamda görünen çözümlere sınırlamadıysak ve yine de bu çözümü bulduysa bu o probleme has bir durum olur.

Yani hiçbir sincaba benzemeyen bir çözüm de üretebilirdi. Sadece demek ki sincap gerçekten iyi bir evrim sürecinden geçtiği için gidip o çözüme yöneldiğini söyleyebiliriz. Genel olarak bu özdevimli öğrenme (machine learning) yönündeki makinelerden çıkan çözümlerin insanların hayal edebileceği çözümler olması gibi bir şart veya sınırlama yok.

Hatta tam tersi! Bunun en yakın örneği de AlphaGo programı. Yani Go programı AlphaGo dünya şampiyonunu yendikten sonra dünyadaki bütün Go ustaları AlphaGo’nun hamlelerini analiz etmeye başladılar.

Çünkü 3000 yıldır Go ile uğraşmamıza rağmen AlphaGo kimsenin hayal bile edemediği birtakım hamleler yapıp -yani ustalara gayet çirkin ve anlamsız görünen birtakım hamleler yapıp- onları yenebilmeye başladı. Ve dünya şampiyonları şey demeye başladılar: “Biz demek ki 3000 yıldır Go’yu anlamamışız.

Gidip bu aletin oynadığı oyunlara bakıp neleri anlamadığımızı öğrenelim.” Dolayısıyla bizim göremediğimiz birtakım çözümleri bu yeni teknolojilerin elde edebilmesi gayet mümkün.

Walter Ong’un Orality and Literacy isimli bir kitabı var. Dil ve öğrenme üzerine çalıştığınız için bunu özellikle size sormak istedim. Bu kitapta şundan bahsediyor: “Yazı bir teknolojidir” diyor ve “Yazı öncesi dönemde insanların beyninin nasıl çalıştığını bizim anlamamız mümkün değil” diyor.

“Çünkü biz yazıyla büyüdük ve yazının soldan sağa akışı aslında bizim beynimizin nasıl çalıştığını temsil ediyor” diyor. “Soldan sağa akış var beynimizde” gibi… Veya “Bu bizim dilimizi, yaşayış şeklimizi ve zamanı o şekilde algılamamızı etkiliyor” diyor.

“Ama yazı icat edilmeden önce insanların bu tarihi bilgileri, arkadaşlarının isimlerini, o kültürdeki efsaneleri vs. hafızalarında nasıl barındırdığını bilemeyiz. Çünkü o başka bir deneyimdi” diyor.

Yazı öncesi sözlü dönemde ve yazı sonrası dönemdeki dil öğrenme ve hafıza kullanma şekli acaba yapay zekâyı anlamak için bir yöntem olabilir mi? Mesela böyle bir yaklaşım ona dil öğretmek için bir referans olarak alınabilir mi?

Ben bu konuda yazara katılmıyorum. İlk önce onu söyleyeyim.

Çünkü sözel dönemde insanların bu tip bilgileri nasıl akıllarında tuttuğuyla ilgili bir hayli bilgiye sahibiz. Şiir tekniği bu yüzden ortaya çıkmış durumda. Kafiyeli şiirler, eskiden yazı bilmeden önce insanların uzun metinleri hatırlamak için kullandıkları bir hafıza tekniğiydi diyebiliriz.

Şu anda gittikçe ona az ihtiyacımız kaldı. Dolayısıyla şiirin popülaritesi de maalesef düştü son zamanlarda. Diğer yandan yazının o kadar evrensel bir etkisi olduğuna da katılmıyorum. Çünkü sonuçta yazının popüler insana gerçekten yayılması bir ya da iki yüz senelik bir mesele.

Yani 1600’lerden önce dünyanın %90’ı okuma yazma bilmiyordu. Dolayısıyla genel olarak insanları bu kadar derinden etkilemiş olmasını çok güvenilir bulmuyorum.

Üçüncü olarak da bir ya da iki sonraki jenerasyonda yazının yine bu kadar önemli olacağına emin değilim çünkü insanlar şu anda örneğin tablet cihazlarıyla konuşup Siri’yle Alexa’yla bir şeyler arıyorlar ve buluyorlar.

Benim kızım okuma yazma öğrenmeden önce Google’da Mickey Mouse’un videolarını sesiyle arıyordu mesela. Belki bir iki jenerasyon sonra çocuklara okuma yazma öğretmeye çalışmamız da bir o kadar anlamsız hale gelecek.

Şu anda çarpım tablosu öğrenmeye ne kadar büyük direnç gösteriyorlarsa o zaman da ona gösterecekler. Çünkü diyecekler ki “Ben niye öğreneyim bunu? Yani cebimde alet var. İstediğim her şeyi bana söylüyor, veriyor.”

Dolayısıyla genel olarak gelecekte yazının önemi konusunda emin değilim.


Deniz Yüret 2002’den beri Koç Üniversitesi Bilgisayar Mühendisliği Bölümü’nde öğretim üyesi ve Yapay Zekâ Laboratuvarı’nın kurucusudur. 1988-2000 yılları arasında MIT Yapay Zekâ Laboratuvarı’nda, 2000-2002 yılları arasında kurucusu olduğu Inquira, Inc. şirketinde çalışmıştır. Araştırma konuları yapay zekâ, yapay öğrenme ve doğal dil işlemedir. Son yıllarda bilgisayarların insan dilini öğrenmesi ve anlaması ve bunu mümkün kılabilecek derin öğrenme sistemleri üzerine çalışmaktadır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir