Jon Whittle
Yapay zekâ (YZ), beşerlerle (ve beşerler üzerinde) nasıl çalışılacağıyla ilgili gitgide daha fazla şey öğreniyor. Yakın vakitte gerçekleştirilen bir çalışma, yapay zekânın insan alışkanlık ve davranışlarındaki güvenlik açıklarını nasıl belirleyeceğini ve bunları insanların karar verme sürecini etkilemek için nasıl kullanabileceğini ortaya koydu.
Yapay zekânın yaşama ve çalışma biçimimizi her açıdan değiştirdiğini söylemek klişe üzere görünebilir lakin doğrudur. Çeşitli yapay zekâ yazılımları aşı geliştirme, etraf ve ofis idaresi üzere farklı alanlarda faaliyet gösteriyor. Yapay zekâ, insanınki üzere bir zekâ ve hislere sahip olmasa bile yetenekleri güçlü ve süratle gelişiyor.
Şimdilik bir makine istilası hakkında endişelenmenize gerek yok lakin bu son keşif yapay zekânın gücünü vurguluyor ve berbata kullanımı önlemek için uygun bir kontrole ait muhtaçlığın altını çiziyor.
İNSAN DAVRANIŞINI NASIL ETKİLEYECEĞİNİ ÖĞRENEBİLİR
Avustralya’nın ulusal bilim ajansının data ve dijital araştırma kısmı olan CSIRO’nun (İngiliz Milletler Topluluğu Bilimsel ve Endüstriyel Araştırma Kurumu) Data61 programı bünyesinde vazife yapan bir araştırma grubu, ‘tekrarlayan hudut ağı ve derin pekiştirme-öğrenme’ ismi verilen bir cins yapay zekâ sistemi kullanarak, insanların tercih yapma yollarındaki güvenlik açıklarını bulma ve bunu kullanma emeli güden sistematik bir formül geliştirdi. Araştırmacılar, modellerini sınamak için insan iştirakçilerin bilgisayara karşı oyun oynadıkları üç farklı deney gerçekleştirdiler.
Birinci deney, iştirakçilerin uydurma bir para mükafatını kazanmak için kırmızı ya da mavi renkli kutulara tıklamalarını gerektirirken, yapay zekâ, iştirakçinin tercih modellerini öğrenerek onları makul bir seçeneğe yönlendiriyordu. Yapay zekâ, deney müddetince yaklaşık yüzde 70 muvaffakiyete ulaştı.
İkinci deneyde, iştirakçilerin (turuncu bir üçgen gibi) makul bir simge gösterildiğinde bir ekranı izleyerek bir düğmeye basmaları ve diğer bir simge gösterildiğinde ona (örneğin mavi bir daireye) basmaları gerekiyordu. Bu esnada, yapay zekâ, iştirakçilere daha fazla kusur yaptırmak ve neredeyse yüzde 25’lik bir artış elde etmek üzere simge dizini düzenlemeye başladı.
Üçüncü deney, bir iştirakçinin bir emanetçiye (YZ) para veren bir yatırımcı üzere davranacağı birkaç cinsten oluşmaktaydı. Akabinde, yapay zekâ iştirakçiye bir ölçü para iade edecek ve bir sonraki cinste ne kadar yatırım yapacağına karar verecekti. Bu oyun iki farklı modda oynandı: birinde, yapay zekâ, elde ettiği parayı en üst sona çıkarmak hedefiyle hareket etti ve başkasında, kendisi ile insan yatırımcı ortasında adil bir para dağıtımını hedefliyordu. Yapay zekâ her iki modda da son derece başarılı oldu.
Deneyler boyunca, makine, iştirakçilerin verdiği yanıtlardan dersler çıkardı ve insanların karar verme süreçlerindeki güvenlik açıklarını saptayarak bunları hedefledi. Sonuç, makinenin, iştirakçileri makul davranışlara yönlendirmeyi öğrenmesiydi.
ARAŞTIRMA YAPAY ZEKÂNIN GELECEĞİ İÇİN NE MANAYA GELİYOR?
Bu bulgular şimdi ziyadesiyle soyut, hudutlu ve gerçekçi olmayan durumları içeriyor. Bu yaklaşımın nasıl aksiyona geçirilip topluma bir yarar sağlamak maksadıyla kullanılabileceğini belirlemek yolunda daha fazla araştırma yapılması gerekiyor.
Yeniden de bu araştırma, yalnızca yapay zekânın neler yapabileceği değil birebir vakitte insanların nasıl seçim yaptığını konusunda da anlayışımızı geliştiriyor. Bu sonuçlar, makinelerin bizimle olan etkileşimleri sayesinde insanların yaptığı seçimleri yönlendirmeyi öğrenebileceklerini ortaya koyuyor.
Araştırma, davranış bilimlerinin ve kamu siyasetlerinin geliştirilmesinden toplumsal refahı artırmaya, insanların sağlıklı beslenme alışkanlıklarını ya da yenilenebilir enerjiyi nasıl benimsediğini anlamaya ve etkilemeye varıncaya kadar birçok farklı mümkün uygulamanın önünü açacak. Yapay zekâ ve makine tahsili, insanların muhakkak durumlardaki güvenlik açıklarını öğrenmek ve makûs seçimlerden kaçınmalarına yardımcı olmak gayesiyle da kullanılabilir.
Bu sistem, (insanları/ç.n.) yönlendirme emelli hücumlara karşı savunma gayeli da kullanılabilir. Makinelere, mesela çevrimiçi alanda (istenmeyen/ç.n.) bir tesire maruz kaldığımızda bizi uyararak güvenlik açığımızı kapatmak doğrultusunda bir davranış şekillendirmemize (bazı sayfalara tıklamayarak ya da geçersiz bir arama izi bırakmak için öteki sayfalara tıklayarak) yardımcı olmaları öğretilebilir.
SIRADA NE VAR?
Tıpkı her teknolojide olduğu üzere, yapay zekâ da iyi ya da berbat emeller için kullanılabilir ve gerçek bir idare, sorumlu bir biçimde kullanılmasını sağlamak kelam konusu olduğunda büyük ehemmiyet taşır. Geçtiğimiz yıl CSIRO, bu yolda atılan birinci adım olarak Avustralya hükümeti için bir yapay zekâ etik çerçevesi oluşturdu.
Yapay zekâ ve makine tahsili, çoğunlukla datalara muhtaçlık duyar; bu da bilgi idaresi ve erişimi bağlamında tesirli sistemlere sahip olmamızın ziyadesiyle değerli olduğu manasına gelir. Bilgi toplanması sırasında kâfi onay süreçlerinin ve saklılık müdafaasının uygulanması çok değerlidir.
Yapay zekâ kullanan ve geliştiren kuruluşların, bu teknolojilerin neler yapıp yapamayacağını anladıklarından ve potansiyel risklerin ve yararların farkında olduklarından emin olmaları gerekir.
Makalenin özgünü The Conversation sitesinde yayımlanmıştır. (Çeviren: Tarkan Tufan)
Gazete Duvar