• scott aaronson'ın yakın zamanlı bir konuşmasında yakın arkadaşı boaz barak ile yapay zekanın geleceği hakkında düşünürken buradan görebileceğiniz bir tablo çıkarıyorlar. linke bir şey olabilir diye fotosunu da ekleyelim: buradan

    konuşmanın sonunda scott aaronson bir çeşit din öneriyor. insanın özelliği - farkı - taklit edilemezliği olarak onun tek bir şansı oluşunu (klonlanamazlık, ölümlülük) ve kimliğinin bedeninden ayrılamayışını göstererek yapay zekaların buna değer veren bir dinle geliştirilmesini öneriyor. yani yapay zeka ne durumda olursa olsun insanın bu ayırt edici özelliğine saygılı olarak gelişimini sürdürmeli.

    eh büyük hayal kırıklığı diyerek başlayalım. yani, ya ai bu dine inanmayı kabul etmezse?

    insan ne işe yarar sorusuna yanıt vermeden önce yapay zeka ile ilgili temel problemi netleştirelim. sorun şu: kendisine bir şey dayatamayacağımız bir zeka kendine ait bir gündem belirlerse - ve bizi bundan haberdar etmeye tenezzül etmez ya da ettiğinde onu anlayamayacak olursak- ne yapacağız? love death + robots dizisinin 1. sezon, 6. bölümünde when yogurt took over diye bir bölüm var. tam olarak bu soruna odaklanıyor.

    aşırı zeki bir yoğurt önce insanlara yardım etmeye çalışıyor. insanlar yoğurdun önerilerini dikkate alamadıkları için çuvallıyorlar, büyük bir kriz ortaya çıkıyor. sonrasında tamamen yoğurdun idaresine girmek dışında bir şansları kalmıyor. yoğurt insanlar için mükemmel bir dünya inşa ediyor. bölümün sonunda ise yoğurt dünyayı terkediyor. insanlar ise ne yapacaklarını bilmez bir halde kalıyorlar zira her şey yoğurt tarafından hallediliyordu zaten. tanrısı tarafından terk edilmiş kullar olarak kalmak kalıyor insanın payına.

    yapay zeka için 10.3389/frobt.2023.1102438 buradan anladığımı kadarıyla canlılarda görülen şekilde bir motivasyon mümkün değil. yani kendisine ait ayrı bir plan yapıp - yoğurt gibi- onu uygulamak gibi bir ihtimal henüz ortada yok.

    o halde ikinci tehlikeyi düşünmeliyiz. bu ikinci tehlike basitçe bir emri ya da motivi insan için kabul edilemeyecek kadar ciddiye alma riski (bkz: paperclipalypse). bu risk ise yapay zekanın sahip olmadığı ancak insanların yüz binlerce yıldır sahip olduğu bir özellikle alakalı: öncelik. her ne kadar son elli yıldır insanlığın kültürü biyolojisinden tamamen kopmuş ya da onu değiştirmek üzere aşırı derecede inisiyatif almış olsa da 50-60'lara kadar insanlık birinci önceliğinin ne olduğunu gayet iyi biliyordu: zamana yayılmak.

    ------------
    üstteki metni çok önceden yazıp, görüldüğü üzere bitirmeden, kenara koymuştum ancak nick bostrom'da aynı soruyu soruyorsa bu başlığı açmanın zamanı gelmiş demektir.

    "the telos of technology, we might say, is to allow us to accomplish more with less effort. ıf we extrapolate this internal directionality to its logical terminus, we arrive at a condition in which we can accomplish everything with no effort. over the millennia, our species has meandered a fair distance toward this destination already. soon the bullet train of machine
    superintelligence (have we not already heard the conductor's whistle?) could whisk us the rest of the way. and what would become of us then? what would give our lives meaning and purpose in a "solved world"? what would we do all day?"

    bostrom, n. (2024). deep utopia: life and meaning in a solved world. ideapress publishing.,sf.13.