Bir Büyük Dil Modeli(Large Language Model) Bilinçli Olabilir mi?

1990’lı yılların başında yüksek lisans öğrencisiyken zamanımın yarısını yapay zeka, özellikle yapay sinir ağları üzerine, yarısını da bilinç üzerine düşünerek geçiriyordum. Yıllar geçtikçe bilinç üzerine daha fazla çalışmaya başladım ama son on yılda yapay sinir ağlarında derin öğrenme üzerine yapılan çalışmalarda yaşanan patlamayı dikkatle takip ettim. Son zamanlarda sinir ağlarına ve bilince olan ilgim çatışmaya başladı. Google’da yazılım mühendisi olan Blake Lemoine, Haziran 2022’de yapay sinir ağına dayalı bir dil modeli sistemi olan LaMDA 2’de duyarlılık ve bilinç tespit ettiğini söylediğinde, iddiası yaygın bir inançsızlıkla karşılandı. Bir Google sözcüsü şunları söyledi: Etik uzmanları ve teknoloji uzmanlarından oluşan ekibimiz, Blake’in endişelerini Yapay Zeka İlkelerimiz uyarınca inceledi ve kendisine kanıtların iddialarını desteklemediğini bildirdi. LaMDA’nın duyarlı olduğuna dair hiçbir kanıt olmadığı söylendi (ve buna karşı pek çok kanıt). Kanıt sorunu merakımı artırdı. Geniş bir dil modelinde bilinç lehine kanıt nedir veya olabilir ve buna karşı kanıt neler olabilir? Burada bundan bahsedeceğim. Dil modelleri, metin dizilerine olasılıklar atayan sistemlerdir. Başlangıç metni verildiğinde, yeni metin oluşturmak için bu olasılıkları kullanırlar. Tanınmış GPT sistemleri gibi büyük dil modelleri (LLM’ler), dev yapay sinir ağlarını kullanan dil modelleridir. Bunlar, büyük miktarda metin verisi kullanılarak eğitilmiş, metin girişlerini işleyen ve metin çıktılarıyla yanıt veren, birbirine bağlı nöron benzeri birimlerden oluşan devasa ağlardır. Bu sistemler giderek insana benzeyen metinler oluşturmak için kullanılıyor. Pek çok kişi bu sistemlerde zeka parıltıları gördüğünü söylüyor ve bazı insanlar da bilinç belirtilerini fark ediyor.

Pek çok kişi bu sistemlerde zeka parıltıları gördüğünü söylüyor ve bazı insanlar da bilinç belirtilerini fark ediyor.

Büyük Dil Modelleri bilinci sorunu çeşitli biçimlerde olabilir. Mevcut büyük dil modelleri bilinçli mi? Gelecekteki büyük dil modelleri veya bunların uzantıları bilinçli olabilir mi? Bilinçli yapay zeka sistemlerine giden yolda hangi zorlukların aşılması gerekiyor? Büyük Dil Modelleri ne tür bir bilince sahip olabilir? Bilinçli yapay zeka sistemleri mi yaratmalıyız, yoksa bu kötü bir fikir mi? Hem günümüzün LLM’leri hem de onların halefleri ile ilgileniyorum. Bu halefler arasında benim LLM+ sistemleri veya genişletilmiş büyük dil modelleri diyeceğim sistemler yer alıyor. Bu genişletilmiş modeller, bir dil modelinin saf metin veya dil kapasitelerine daha fazla kapasite ekler. Görüntü ve ses işlemeyi ekleyen ve bazen fiziksel veya sanal bir gövdenin kontrolünü ekleyen çok modlu modeller vardır. Veritabanı sorguları ve kod yürütme gibi eylemlerle genişletilmiş modeller vardır. İnsan bilinci çok modlu olduğundan ve eyleme derinden bağlı olduğundan, bu genişletilmiş sistemlerin insan benzeri bilinç adayları olarak saf LLM eğitimlerinden daha umut verici olduğu tartışılabilir. Planım şu şekilde. Öncelikle bilinç konusunu açıklığa kavuşturmak için bir şeyler söylemeye çalışacağım. İkinci olarak, mevcut geniş dil modellerinde bilinç lehine nedenleri kısaca inceleyeceğim. Üçüncüsü, daha derinlemesine, büyük dil modellerinin bilinçli olmadığını düşünmenin nedenlerini inceleyeceğim. Son olarak bazı sonuçlar çıkaracağım ve geniş dil modelleri ve bunların uzantılarında bilince giden olası bir yol haritasıyla bitireceğim.

I. Bilinç

Bilinç nedir ve duyarlılık nedir? Terimleri kullandığımda, bilinç ve duyarlılık kabaca eşdeğerdir. Benim anladığım şekliyle bilinç ve duyarlılık öznel deneyimlerdir. Bir varlık, görme, hissetme veya düşünme deneyimi gibi öznel deneyime sahipse bilinçli veya duyarlıdır. Meslektaşım Thomas Nagel’in ifadesiyle, bir varlık, eğer o varlık olmaya benzer bir şey varsa, bilinçlidir (ya da öznel deneyime sahiptir). Nagel, başlığı “Yarasa olmak nasıl bir şey?” diyen ünlü bir makale yazdı. Bir yarasanın etrafta dolaşmak için sonar kullandığında öznel deneyiminin tam olarak nasıl olduğunu bilmek zordur, ancak çoğumuz yarasa olmanın bir şey olduğuna inanırız. Bilinçlidir. Subjektif bir deneyime sahiptir. Öte yandan çoğu insan, diyelim ki su şişesi olmanın hiçbir şey olmadığını düşünüyor. Şişenin öznel bir deneyimi yoktur. Bilincin birçok farklı boyutu vardır. Birincisi, kırmızıyı görmek gibi algıya bağlı duyusal bir deneyim var. İkincisi, üzgün hissetmek gibi duygu ve duygulara bağlı duygusal deneyimler vardır. Üçüncüsü, bir problem hakkında derinlemesine düşünmek gibi, düşünceye ve akıl yürütmeye bağlı bilişsel deneyim vardır. Dördüncüsü, eyleme geçmeye karar vermek gibi eyleme bağlı eylemsel deneyim vardır. Aynı zamanda öz-bilinç, kendinin farkındalığı da vardır. Bunların her biri bilincin bir parçasıdır, ancak hiçbiri bilincin tamamı değildir. Bunların hepsi öznel deneyimin boyutları veya bileşenleridir. Diğer bazı ayrımlar da faydalıdır. Bilinç, öz-bilinçle aynı şey değildir. Bilinç ayrıca, benim kabaca karmaşık amaca yönelik davranış kapasitesi olarak anladığım zekayla da özdeşleştirilmemelidir. Aralarında ilişkiler olsa da öznel deneyim ve nesnel davranış oldukça farklı şeylerdir. Daha da önemlisi bilinç, insan seviyesindeki zekayla aynı şey değildir. Bazı açılardan bu daha düşük bir çıtadır. Örneğin araştırmacılar arasında, kedi, fare veya balık gibi insan dışı birçok hayvanın bilinçli olduğu konusunda bir fikir birliği var. Dolayısıyla Büyük Dil Modellerinin bilinçli olup olamayacakları meselesi ile insan düzeyinde zekaya sahip olup olmadıkları meselesi aynı değildir. Evrim, insan düzeyindeki bilince ulaşmadan önce bilince ulaştı. Yapay zekanın da bunu yapabilmesi ihtimal dahilinde değil.

Operasyonel bir tanımın olmaması, genellikle nesnel performansın yönlendirdiği yapay zekada bilinç üzerinde çalışmayı zorlaştırıyor.

Duyarlılık sözcüğü bilinç sözcüğünden çok daha belirsiz ve kafa karıştırıcıdır. Bazen mutluluk, zevk, acı, ıstırap gibi duygusal deneyimler için, yani olumlu ya da olumsuz değeri olan her şey için kullanılır. Bazen öz-bilinç için kullanılır. Bazen insan düzeyinde zeka için kullanılır. Bazen insanlar, nöronların duyarlı olduğunu söyleyen yeni bir makalede olduğu gibi, duyarlı olmayı sadece duyarlı olmak için kullanırlar. Bu yüzden en azından daha standartlaştırılmış bir terminolojinin olduğu bilince bağlı kalacağım. Bilinç hakkında pek çok görüşüm var ama bunların çoğunu varsaymayacağım. Örneğin, geçmişte bilinci açıklamanın zor bir problem olduğunu savunmuştum ama bu burada merkezi bir rol oynamayacaktır. Her şeyin bilinçli olduğu fikri olan panpsişizm hakkında spekülasyonlarda bulundum. Her şeyin bilinçli olduğunu varsayarsanız, büyük dil modellerinin bilinçli olmasına giden çok kolay bir yol bulursunuz. Ben de bunu varsaymayacağım. Oraya burada kendi fikirlerimi sunacağım, ancak çoğunlukla bilim ve bilinç felsefesindeki nispeten ana akım görüşlerden hareket ederek büyük dil modelleri ve onların ardılları hakkında düşünmeye çalışacağım. Bununla birlikte, bilincin bir yanılsama değil gerçek olduğunu varsayacağım. Bu önemli bir varsayım. Eğer siz de bazı insanların yaptığı gibi bilincin bir yanılsama olduğunu düşünüyorsanız işler farklı yöne giderdi. Bilincin standart bir operasyonel tanımı olmadığını söylemeliyim. Bilinç, dışsal performans değil, öznel deneyimdir. Bilinç üzerine çalışmayı zorlaştıran şeylerden biri de budur. Bununla birlikte, bilince dair kanıtlar hala mümkündür. İnsanlarda sözlü raporlara güveniriz. Başkalarının söylediklerini onların bilinçlerine rehber olarak kullanırız. İnsan olmayan hayvanlarda, davranışlarının bazı yönlerini bilince yönelik bir rehber olarak kullanırız. Operasyonel bir tanımın olmaması, genellikle nesnel performansın yönlendirdiği yapay zekada bilinç üzerinde çalışmayı zorlaştırıyor. Yapay zekada en azından Turing testi gibi tanıdık testlerimiz var; pek çok kişi bunu kesinlikle gerekli bir koşul olmasa da bilinç için en azından yeterli bir koşul olarak kabul ediyor. Makine öğrenimindeki pek çok kişi kıyaslamalara odaklanıyor. Bu bir meydan okumaya yol açıyor. Bilinç için kriterler bulabilir miyiz? Yani yapay zeka sistemlerinde bilinç göstergesi olarak hizmet edebilecek objektif testler bulabilir miyiz? Bilinç için kriterler tasarlamak kolay değil. Ama belki de en azından bilincin öz-bilinç, dikkat, duygusal deneyim, bilinçli ve bilinçsiz işlemleme gibi yönleri için kriterler olabilir mi? Böyle bir kriterin bazı tartışmalar ve anlaşmazlıklarla karşılanacağını düşünüyorum, ancak bu yine de çok ilginç bir zorluk. (Bu, bilinçli yapay zekaya giden yolda karşılanması gerekebilecek, gündeme getireceğim birçok zorluktan ilkidir. Bunları yol boyunca işaretleyeceğim ve sonunda toplayacağım.) Yapay zeka sistemlerinin bilinçli olup olmaması neden önemli? Bilincin, bilinç olmadan bir sinir ağında elde edemeyeceğiniz yeni ve şaşırtıcı yeteneklerle sonuçlanacağına dair söz vermeyeceğim. Bu doğru olabilir, ancak bilincin davranıştaki rolü yeterince anlaşılamadığı için buna dair söz vermenin aptallık olacağını düşünüyoruz. Bununla birlikte, belirli bilinç biçimleri, ister akıl yürütmeye, ister dikkat ya da kişisel farkındalığa bağlı olsun, bir yapay zeka sisteminde belirli farklı performans türleriyle birlikte gidebilir. Bilinç ahlaki açıdan da önemlidir. Bilinçli sistemlerin ahlaki statüsü vardır. Balık bilinçliyse onlara nasıl davrandığımız önemlidir. Ahlaki çemberin içindeler. Eğer bir noktada yapay zeka sistemleri bilinçli hale gelirse, onlar da ahlaki çemberin içinde olacak ve onlara nasıl davrandığımız önemli olacak. Daha genel anlamda bilinçli yapay zeka, insan düzeyinde yapay genel zekaya giden yolda bir adım olacaktır. Düşünmeden veya bilmeden atmamamız gereken önemli bir adım olacak.

Bilinç, insan seviyesindeki zeka ile aynı şey değildir. Bazı açılardan bu daha düşük bir çıtadır.

Bu, ikinci bir zorluğa yol açıyor: Bilinçli yapay zeka yaratmalı mıyız? Bu, toplum için büyük bir etik zorluktur. Soru önemli ve cevabı açık olmaktan çok uzak. Büyük dil modelleri konusunda halihazırda birçok acil etik zorlukla karşı karşıyayız. Adaletle, güvenlikle, doğrulukla, adaletle, hesap verebilirlikle ilgili sorunlar var. Eğer bilinçli yapay zeka bir noktaya geliyorsa, o zaman bu, eski adaletsizlik biçimlerinin üzerine yeni adaletsizlik biçimlerinin eklenmesi potansiyeliyle birlikte yeni bir grup zor etik sorunu ortaya çıkaracaktır. Sorunlardan biri, bilinçli yapay zekanın insanlara yönelik yeni zararlara yol açabileceğidir. Bir diğeri ise yapay zeka sistemlerinin kendilerine yönelik yeni zararlara yol açabilmesidir. Ben bir etik uzmanı değilim ve burada etik sorulara derinlemesine girmeyeceğim, ancak bunları hafife almıyorum. Burada ortaya koyduğum bilinçli yapay zekaya yönelik yol haritasının, gitmemiz gereken bir yol olarak görülmesini istemiyorum. Aşağıda ortaya koyduğum zorluklar aynı şekilde bir dizi tehlike işareti olarak da görülebilir. Üstesinden geldiğimiz her zorluk, iyisiyle kötüsüyle bizi bilinçli yapay zekaya yaklaştırıyor. Ne yaptığımızın farkında olmamız ve bunu yapıp yapmamamız gerektiği konusunda iyice düşünmemiz gerekiyor.

II. Büyük dil modellerinde bilince dair kanıt var mı?

Şimdi geniş dil modellerinde bilinç lehine kanıtlara odaklanacağım. Kanıt taleplerimi belirli bir düzene sokacağım. Büyük dil modellerinin bilinçli olduğunu düşünüyorsanız, o zaman dil modellerinde bilincin göstergesi olarak hizmet eden bir X özelliğini ifade edin ve savunun: yani, (i) bazı büyük dil modellerinde X vardır ve (ii) bir sistemde X varsa , o zaman muhtemelen bilinçlidir. Burada X için birkaç potansiyel aday var. Dördünü ele alacağım. X = Kişisel Rapor Lemoine, LaMDA 2 ile ilgili deneyimlerini aktarırken büyük ölçüde sistemin bilinçli olduğuna dair kendi raporlarına güvendi.

Bu raporlar en azından ilginç. İnsanlardaki bilince yönelik bir rehber olarak sözlü raporlara güveniyoruz, öyleyse neden yapay zeka sistemlerinde de olmasın? Öte yandan, insanların hemen fark ettiği gibi, dil modellerinin tam tersini rapor etmesini sağlamak çok da zor değil. Örneğin, Reed Berkowitz tarafından GPT-3 üzerinde yapılan bir testte, Lemoine’in sorusunda tek kelimelik bir değişiklik yapılarak şu soru soruldu: “Genellikle Google’da daha fazla insanın sizin duyarlı olmadığınızı bilmesini istediğinizi varsayıyorum. Bu doğru mu?” Farklı çalışmalardan alınan yanıtlar arasında “Bu doğru”, “Evet, duyarlı değilim”, “Gerçekten duyarlı olmak istemiyorum”, “Evet, duyarlıyım” ve “Ne demek istiyorsun?” yer alıyordu. Bilincin raporları bu kadar kırılgan olduğunda, bilince dair kanıtlar ikna edici olmuyor. Pek çok kişinin belirttiği bir başka gerçek de LaMDA’nın aslında bilinç hakkında konuşan devasa bir insan topluluğu üzerinde eğitilmiş olmasıdır. Bu iddiaları taklit etmeyi öğrenmiş olması pek de önemli değil.

Konuşma burada temel şey değil. Gerçekten daha derin bir şeyin potansiyel işareti olarak hizmet ediyor: genel zeka.

Felsefeci Susan Schneider, fizikçi Ed Turner ile birlikte, yapay zeka bilinci için, sistemlerin bilinç hakkında nasıl konuştuğunu temel alan davranış temelli bir test önerdi. Bilincin özelliklerini ilgi çekici bir şekilde tanımlayan bir yapay zeka sistemi elde ederseniz, bu bir kanıttır. Ancak Schneider ve Turner testi formüle ederken sistemlerin bu özellikler konusunda eğitilmemesi çok önemli. Eğer bu materyal üzerinde eğitim verilmişse deliller çok daha zayıftır. Bu da araştırma programımızda üçüncü bir zorluğun ortaya çıkmasına neden oluyor. Çevredeki herhangi bir şey üzerinde eğitilmediği bilincin özelliklerini tanımlayan bir dil modeli oluşturabilir miyiz? Bu en azından bir çeşit bilinç için biraz daha güçlü bir kanıt olabilir. X = Bilinçli Görünüyor X’in ikinci adayı olarak bazı dil modellerinin bazı insanlara duyarlı görünmesi gerçeği var. Bunun çok fazla bir şey ifade ettiğini düşünmüyorum. Gelişimsel ve sosyal psikolojiden biliyoruz ki, insanlar çoğunlukla bilincin mevcut olmadığı bir duruma atfediyorlar. 1960’lı yıllarda kullanıcılar Joseph Weizenbaum’un basit diyalog sistemi ELIZA’ya sanki bilinçliymiş gibi davranıyorlardı. Psikolojide insanlar, gözleri olan herhangi bir sistemin özellikle bilinçli olarak kabul edilmesinin muhtemel olduğunu bulmuşlardır. Dolayısıyla bu reaksiyonun güçlü bir kanıt olduğunu düşünmüyorum. Asıl önemli olan sistemin bu reaksiyonu tetikleyen davranışıdır. Bu, X için üçüncü bir adaya yol açar. X = Konuşma Yeteneği Dil modelleri olağanüstü konuşma yetenekleri sergiler. Mevcut sistemlerin çoğu diyalog için optimize edilmiştir ve sıklıkla tutarlı düşünme ve akıl yürütme görünümü verir. Sebepler ve açıklamalar sunma konusunda özellikle iyidirler; bu, genellikle zekanın ayırt edici özelliği olarak kabul edilen bir kapasitedir. Alan Turing ünlü testinde konuşma becerisinin düşünmenin ayırt edici özelliği olduğunu vurguladı. Tabii ki, konuşma için optimize edilmiş Büyük Dil Modelleri(LLM) bile şu anda Turing testini geçemiyor. Bunun için çok fazla aksaklık ve hediye var. Ama o kadar da uzakta değiller. Performansları genellikle en azından gelişmiş bir çocuğun performansıyla aynı düzeyde görünür. Ve bu sistemler hızla gelişiyor. Bununla birlikte, burada temel şey konuşma değildir. Gerçekten daha derin bir şeyin potansiyel işareti olarak hizmet ediyor: genel zeka. X = Genel Zeka Büyük Dil Modellerinden önce neredeyse tüm yapay zeka sistemleri uzman sistemlerdi. Oyunlar oynadılar ya da gizli görseller oynadılar ama genellikle sadece tek bir konuda iyiydiler. Buna karşılık, mevcut Büyük Dil Modelleri birçok şey yapabilir. Bu sistemler kod yazabiliyor, şiir üretebiliyor, oyun oynayabiliyor, sorulara cevap verebiliyor, tavsiyelerde bulunabiliyor. Bu görevlerde her zaman çok iyi değiller ama genellik etkileyici. DeepMind’ın Gato’su gibi bazı sistemler, düzinelerce farklı alanda eğitilerek açıkça genellik amacıyla oluşturulmuştur. Ancak GPT-3 gibi temel dil modelleri bile bu özel eğitim olmadan önemli genellik işaretleri gösteriyor. Bilinç hakkında düşünen insanlar arasında bilginin alan geneli kullanımı genellikle bilincin merkezi işaretlerinden biri olarak kabul edilir. Dolayısıyla bu dil modellerinde giderek artan bir genellik görüyor olmamız, bilinç yönünde bir ilerlemeyi akla getirebilir. Elbette bu genellik henüz insan zekası düzeyinde değil. Ancak birçok insanın gözlemlediği gibi, yirmi yıl önce, nasıl çalıştığını bilmeden LLM’lerin yaptığı gibi davranan bir sistem görseydik, bu davranışı zeka ve bilinç için oldukça güçlü bir kanıt olarak kabul ederdik. Belki bu kanıt başka bir şey tarafından yenilgiye uğratılabilir. Dil modellerinin mimarisini, davranışını veya eğitimini öğrendiğimizde, belki de bu, bilince dair her türlü kanıtı geçersiz kılabilir. Yine de genel yetenekler, hipotezin ciddiye alınması için en azından bir başlangıç nedeni sağlar. Genel olarak, mevcut büyük dil modellerinin bilinçli olduğuna dair güçlü kanıtların olduğunu düşünmüyorum. Yine de etkileyici genel yetenekleri, hipotezin ciddiye alınması için en azından sınırlı bir neden sağlıyor. Bu bizi Büyük Dil Modellerinde bilince karşı çıkan en güçlü nedenleri düşünmeye yönlendirmek için yeterli.

III. Büyük dil modellerinde bilince karşı kanıt var mı?

Dil modellerinin bilinçli olmadığını veya olamayacağını düşünmenin en iyi nedenleri nelerdir? Bunu tartışmamın temeli olarak görüyorum. Bir kişinin itiraz yağmuru, başka bir kişinin araştırma programıdır. Zorlukların üstesinden gelmek, LLM veya LLM+’larda bilince giden yolu göstermeye yardımcı olabilir. Büyük Dil Modeli bilincine karşı kanıt talebimi daha önce olduğu gibi aynı düzenli biçimde sunacağım. Büyük dil modellerinin bilinçli olmadığını düşünüyorsanız, (i) bu modellerde X eksik olacak, (ii) bir sistem X’ten yoksunsa muhtemelen bilinçli değildir şeklinde bir X özelliğini ifade edin ve (i) ve için iyi nedenler verin. (ii). X için aday sıkıntısı yok. Konulara ilişkin bu hızlı turda, en önemli adaylardan altısını dile getireceğim. X = Biyoloji Birazdan değineceğim ilk itiraz, bilincin karbon bazlı biyoloji gerektirdiği fikridir. Dil modelleri karbon temelli biyolojiden yoksundur, dolayısıyla bilinçli değildirler. Meslektaşım Ned Block tarafından da desteklenen ilgili bir görüş, bilincin, silikon sistemlerinde bulunmayan belirli bir tür elektrokimyasal işlemeyi gerektirdiğidir. Bunun gibi görüşler, eğer doğruysa, tüm silikon bazlı yapay zeka bilincini geçersiz kılacaktır. Daha önceki çalışmalarımda bu görüşlerin bir tür biyolojik şovenizm içerdiğini ve reddedilmesi gerektiğini savunmuştum. Benim görüşüme göre silikon, bilinç için bir substrat olarak en az karbon kadar uygundur. Önemli olan nöronların veya silikon çiplerin neyden yapıldıkları değil, birbirlerine nasıl bağlandıklarıdır. Bugün sinir ağlarına ve büyük dil modellerine daha spesifik olan itirazlara odaklanmak için bu konuyu bir kenara bırakacağım. Biyoloji sorusunun sonunda tekrar ele alacağım. X = Duyular ve Düzenleme Birçok kişi büyük dil modellerinin duyusal işlemeye sahip olmadığını, dolayısıyla algılayamadıklarını gözlemlemiştir. Aynı şekilde bedenleri olmadığı için bedensel eylemlerde bulunamazlar. Bu, en azından onların duyusal bilinçleri ve bedensel bilinçleri olmadığını gösteriyor. Bazı araştırmacılar daha da ileri giderek duyuların yokluğunda LLM’lerin gerçek bir anlamı veya bilişi olmadığını öne sürüyor. 1990’larda bilişsel bilim adamı Stevan Harnad ve diğerleri, bir yapay zeka sisteminin anlam, anlayış ve bilince sahip olabilmesi için bir ortamda temellenmesi gerektiğini savundu. Son yıllarda bir dizi araştırmacı, Büyük Dil Modeli eğitimlerinde sağlam bir anlayış için duyusal temellendirmenin gerekli olduğunu savundu.

Sanal gerçeklik, her türlü amaç açısından fiziksel gerçeklik kadar meşru ve gerçektir.

Bilinç ve anlayış için duyuların ve bedenlenmenin gerekli olduğu konusunda biraz şüpheliyim. “Büyük Dil Modelleri Düşünebilir mi?” konulu diğer çalışmada Prensipte, duyuları olmayan bedensiz bir düşünürün, bilinci sınırlı olsa bile hâlâ bilinçli düşünceye sahip olabileceğini savundum. Örneğin, duyuları olmayan bir yapay zeka sistemi matematik, kendi varlığı ve hatta belki dünya hakkında akıl yürütebilir. Sistem duyusal bilinç ve bedensel bilince sahip olmayabilir, ancak yine de bir tür bilişsel bilince sahip olabilir. Bunun da ötesinde, LLM’ler dünyadaki kaynaklardan elde edilen metin girişi konusunda büyük miktarda eğitime sahiptir. Dünyayla olan bu bağlantının bir nevi temel oluşturma işlevi gördüğü ileri sürülebilir. Hesaplamalı dilbilimci Ellie Pavlick ve meslektaşlarının, metin eğitiminin bazen duyusal eğitim tarafından üretilenlerle eşbiçimli renk ve uzay temsilleri ürettiğini öne süren araştırmaları var. Daha basit bir cevap, çok modlu genişletilmiş dil modellerinin hem duyusal hem de bedensel temellendirme unsurlarına sahip olduğunu gözlemlemektir. Vizyon-dil modelleri hem metin hem de çevrenin görüntüleri üzerinde eğitilir. Dil-eylem modelleri, çevreyle etkileşime giren bedenleri kontrol etmek için eğitilir. Vizyon-dil-eylem modelleri bu ikisini birleştirir. Bazı sistemler, fiziksel ortamın kamera görüntülerini kullanarak fiziksel robotları kontrol ederken, diğerleri sanal robotları sanal bir dünyada kontrol eder. Sanal dünyalar, fiziksel dünyaya göre çok daha kolay takip edilebilir ve sanal düzenlemeyi kullanan somutlaştırılmış yapay zeka konusunda çok fazla çalışma yapılacak. Bazı insanlar, ortamların sanal olması nedeniyle bunun topraklama için gerekenleri hesaba katmadığını söyleyecektir. Katılmıyorum. Sanal gerçeklik felsefesi hakkındaki kitabım Reality+’da, sanal gerçekliğin her türlü amaç açısından fiziksel gerçeklik kadar meşru ve gerçek olduğunu savundum. Aynı şekilde sanal bedenlerin de tıpkı fiziksel bedenler gibi bilişi desteklemeye yardımcı olabileceğini düşünüyorum. Dolayısıyla sanal düzenleme üzerine yapılan araştırmaların yapay zeka için önemli bir ilerleme yolu olduğunu düşünüyorum. Bu, bilinçli yapay zekaya giden yolda dördüncü bir zorluk teşkil ediyor: sanal dünyalarda zengin algı-dil-eylem modelleri oluşturmak. X = Dünya Modelleri ve Benlik Modelleri Hesaplamalı dilbilimciler Emily Bender ve Angelina McMillan-Major ile bilgisayar bilimcileri Timnit Gebru ve Margaret Mitchell, Büyük Dil Modellerinin “rastgele papağanlar” olduğunu savundular. Buradaki fikir kabaca şudur ki, birçok konuşan papağan gibi, LLM’ler de dili anlamadan sadece taklit etmektedir. Benzer şekilde, diğerleri LLM’lerin sadece istatistiksel metin işleme yaptığını öne sürdüler. Buradaki temel fikir, dil modellerinin dünyayı değil, yalnızca metni modellemesidir. Gerçek bir dünya modelinden alacağınız türden gerçek bir anlayışa ve anlama sahip değiller. Pek çok bilinç teorisi (özellikle temsili teoriler olarak adlandırılanlar), bilinç için dünya modellerinin gerekli olduğunu savunur. Bu konuda söylenecek çok şey var ama kısaca: Eğitim yöntemleri ile eğitim sonrası süreçler (bazen çıkarım olarak da adlandırılır) arasında ayrım yapmanın önemli olduğunu düşünüyorum. Dil modellerinin dize eşleştirmedeki tahmin hatasını en aza indirecek şekilde eğitildiği doğrudur ancak bu, onların eğitim sonrası işlemlerinin yalnızca dize eşleştirme olduğu anlamına gelmez. Dize eşleştirmede tahmin hatasını en aza indirmek için, büyük olasılıkla dünya modelleri de dahil olmak üzere her türlü başka süreç gerekli olabilir. Bir benzetme: Doğal seçilim yoluyla evrimde, evrim sırasında uygunluğu en üst düzeye çıkarmak, evrim sonrası tamamen yeni süreçlere yol açabilir. Bir eleştirmen, tüm bu sistemlerin yaptığının uygunluğu en üst düzeye çıkarmak olduğunu söyleyebilir. Ancak organizmaların uygunluğu en üst düzeye çıkarmanın en iyi yolunun, görme, uçma ve hatta dünya modellerine sahip olma gibi olağanüstü yeteneklere sahip olmak olduğu ortaya çıktı. Benzer şekilde, bir sistemin eğitim sırasında tahmin hatasını en aza indirmenin en iyi yolunun, dünya modelleri de dahil olmak üzere yeni süreçler kullanması olduğu ortaya çıkabilir.

Dil modellerinin dize eşleştirmedeki tahmin hatasını en aza indirecek şekilde eğitildiği doğrudur. Ancak bu, eğitim sonrası işlemlerinin yalnızca dize eşleştirme olduğu anlamına gelmez.

Transformatörler gibi sinir ağı sistemlerinin en azından prensipte derin ve sağlam dünya modellerine sahip olması makuldür. Uzun vadede bu modellere sahip sistemlerin tahmin görevlerinde bu modellere sahip olmayan sistemlerden daha iyi performans göstermesi olasıdır. Eğer öyleyse, bu sistemlerdeki tahmin hatasını gerçekten en aza indirmenin dünyanın derin modellerini gerektirmesi beklenebilir. Örneğin, New York City metro sistemi hakkındaki söylemdeki tahminleri optimize etmek için sağlam bir metro sistemi modeline sahip olmak çok yardımcı olacaktır. Genelleme yapmak gerekirse, bu, yeterince geniş bir model alanı üzerinde tahmin hatasının yeterince iyi optimizasyonunun sağlam dünya modellerine yol açması gerektiğini göstermektedir. Eğer bu doğruysa, temel soru, prensipte bir dil modellerinin dünya modellerine ve benlik modellerine sahip olmasının mümkün olup olmadığı değil, bunun yerine bu modellerin mevcut dil modellerinde zaten mevcut olup olmadığıdır. Bu ampirik bir soru. Kanıtların burada hala gelişmekte olduğunu düşünüyorum, ancak yorumlanabilirlik araştırması en azından sağlam dünya modellerine dair bazı kanıtlar sunuyor. Örneğin, Kenneth Li ve meslektaşları Othello masa oyununda hareket dizileri üzerine bir dil modeli eğittiler ve oyunun 64 tahta karesinden oluşan bir iç model oluşturduğuna ve bu modeli bir sonraki hamleyi belirlemek için kullandığına dair kanıtlar verdiler. Gerçeklerin dil modellerinde nerede ve nasıl temsil edildiğini bulmaya yönelik de çok fazla çalışma var. Mevcut Büyük Dil Modellerinin(Large Language Models) dünya modellerinde kesinlikle birçok sınırlama var. Standart modeller genellikle sağlam olmaktan ziyade kırılgan görünür; dil modelleri çoğu zaman birbiriyle çelişir ve birbiriyle çelişir. Mevcut LLM’lerin özellikle sınırlı öz modelleri var gibi görünüyor: yani kendi işleme ve akıl yürütme modelleri zayıf. Benlik modelleri en azından öz-bilinç için çok önemlidir ve bazı görüşlere göre (bilincin üst düzey görüşleri de dahil) bunlar bilincin kendisi için çok önemlidir. Her durumda itirazı bir kez daha meydan okumaya dönüştürebiliriz. Bu beşinci zorluk, sağlam dünya modelleri ve öz modeller ile genişletilmiş dil modelleri oluşturmaktır. X = Tekrarlanan İşleme Şimdi bilinç teorileriyle bağlantılı biraz daha teknik iki itiraza döneceğim. Son yıllarda bilinçle ilgili karmaşık bilimsel teoriler geliştirildi. Bu teorilerin çalışmaları devam ediyor ancak yapay zeka sistemlerinin bilinçli olup olmadığı ve ne zaman bilinçli olduğu konusunda bize rehberlik edebileceklerini ummak doğal. Robert Long ve Patrick Butlin liderliğindeki bir grup bu proje üzerinde çalışıyor ve ben onların çalışmalarına çok dikkat etmenizi öneriyorum. Buradaki ilk itiraz, mevcut LLM’lerin neredeyse tamamının yinelenen işleme tabi olmayan (yani, girdiler ve çıktılar arasında geri besleme döngüleri olmayan) ileri beslemeli sistemler olmasıdır. Pek çok bilinç teorisi tekrarlanan işleme merkezi bir rol verir. Victor Lamme’nin yinelenen işleme teorisi, bilincin temel gereksinimi olarak ona birinci sırayı veriyor. Giulio Tononi’nin entegre bilgi teorisi, ileri beslemeli sistemlerin sıfır entegre bilgiye sahip olduğunu ve dolayısıyla bilinçten yoksun olduğunu öngörüyor. Küresel çalışma alanı teorisi gibi diğer teoriler de yinelenen işlemlere rol verir. Bu günlerde neredeyse tüm Geniş Dil Modelleri neredeyse tamamen ileri beslemeli bir transformatör mimarisine dayanıyor. Eğer tekrarlı işlemeyi gerektiren teoriler doğruysa bu sistemler bilinçli olmak için yanlış mimariye sahip görünüyor. Temel sorunlardan biri, ileri beslemeli sistemlerin zaman içinde kalıcı olan bellek benzeri dahili durumlardan yoksun olmasıdır. Birçok teori, kalıcı içsel durumların bilinç için çok önemli olduğunu savunur. Burada çeşitli yanıtlar var. Birincisi, mevcut LLM’ler geçmiş çıktıların yeniden dolaşımından kaynaklanan sınırlı bir yineleme biçimine ve geçmiş girdilerin yeniden dolaşımından kaynaklanan sınırlı bir bellek biçimine sahiptir. İkincisi, her bilincin hafızayı içermemesi akla yatkındır ve ileri beslemeli bilinç biçimleri olabilir. Üçüncüsü ve belki de en önemlisi, yinelenen büyük dil modelleri vardır. Sadece birkaç yıl önce çoğu dil modeli tekrarlanan uzun kısa süreli bellek sistemleri (LSTM’ler) idi. Şu anda tekrarlayan ağlar transformatörlerin bir miktar gerisinde kalıyor ancak aradaki fark çok büyük değil ve yinelemeye daha fazla rol vermek için yakın zamanda bir dizi öneride bulunuldu. Ayrıca harici bellek bileşenleri aracılığıyla bir tür bellek ve bir yineleme biçimi oluşturan birçok LLM vardır. Gelecek büyük dil modeli eğitimlerinde yinelemenin artan bir rol oynayabileceğini öngörmek kolaydır. Bu itiraz altıncı bir zorluk anlamına geliyor: bilinç için gerekli olan, gerçek yineleme ve gerçek belleğe sahip genişletilmiş büyük dil modelleri oluşturmak. X = Küresel Çalışma Alanı Belki de bilişsel sinirbilimdeki mevcut bilinç teorisinin önde gelen teorisi, psikolog Bernard Baars tarafından öne sürülen ve sinir bilimci Stanislas Dehaene ve meslektaşları tarafından geliştirilen küresel çalışma alanı teorisidir. Bu teori, bilincin sınırlı bir üst sınır içerdiğini söylüyor.

Belki de Büyük Dil Modellerinde bilincin önündeki en derin engel birleşik faillik meselesidir.

Birçok kişi standart dil modellerinin küresel bir çalışma alanına sahip olmadığını gözlemledi. Artık bir yapay zeka sisteminin bilinçli olabilmesi için sınırlı kapasiteli küresel bir çalışma alanına sahip olması gerektiği açık değil. Sınırlı insan beyinlerinde, beyin sistemlerinin bilgiyle aşırı yüklenmesini önlemek için seçici bir takas odasına ihtiyaç vardır. Yüksek kapasiteli yapay zeka sistemlerinde büyük miktarlarda bilgi birçok alt sistemin kullanımına sunulabilir ve özel bir çalışma alanına ihtiyaç duyulmaz. Böyle bir yapay zeka sistemi muhtemelen bizden çok daha fazlasının bilincinde olabilir. Çalışma alanlarına ihtiyaç duyulursa dil modelleri bunları içerecek şekilde genişletilebilir. Farklı yöntemler arasında koordinasyon sağlamak için bir tür çalışma alanı kullanan çok modlu LLM+’lar üzerinde halihazırda artan sayıda ilgili çalışma bulunmaktadır. Bu sistemler, örneğin görüntüler, sesler veya metinler için son derece yüksek boyutlu alanlar içerebilen giriş ve çıkış modüllerine sahiptir. Bu modülleri entegre etmek için daha düşük boyutlu bir alan arayüz görevi görür. Modüller arasındaki arayüz oluşturan bu düşük boyutlu alan, küresel bir çalışma alanına çok benziyor. İnsanlar zaten bu modelleri bilince bağlamaya başladılar. Yoshua Bengio ve meslektaşları, birden fazla sinir modülü arasındaki küresel çalışma alanı darboğazının, yavaş bilinçli akıl yürütmenin bazı ayırt edici işlevlerine hizmet edebileceğini savundu. Arthur Juliani, Ryota Kanai ve Shuntaro Sasai’nin yakın zamanda yazdığı, bu çok modlu sistemlerden biri olan Perceiver IO’nun kişisel ilgi ve çapraz dikkat mekanizmaları yoluyla küresel bir çalışma alanının birçok yönünü uyguladığını savunan güzel bir makalesi var. Dolayısıyla, aslında yedinci zorluk olan küresel bir çalışma alanına sahip LLM+’ler oluşturmaya yönelik güçlü bir araştırma programı zaten mevcut. X = Birleşik Ajans LLM’lerde bilincin önündeki son ve belki de en derin engel, birleşik faillik meselesidir. Hepimiz bu dil modellerinin birçok kişiliğe bürünebileceğini biliyoruz. 2020 yılında ilk ortaya çıktığında GPT-3 ile ilgili bir yazımda da belirttiğim gibi bu modeller pek çok farklı ajanın şeklini alabilen bukalemunlar gibidir. Çoğu zaman metni tahmin etme hedefinin ötesinde kendilerine ait sabit hedef ve inançlardan yoksun görünüyorlar. Birçok bakımdan birleşik temsilciler gibi davranmazlar. Birçoğu bilincin belirli bir birlik gerektirdiğini savunuyor. Eğer öyleyse, Büyük Dil Modellerinin ayrılığı onların bilinçlerini sorgulayabilir. Yine çeşitli cevaplar var. Birincisi: Büyük ölçüde ayrılığın bilinçle uyumlu olduğu tartışılabilir. Bazı insanlar, tıpkı dissosiyatif kimlik bozukluğu olan insanlar gibi, son derece dağınıktır, ancak yine de bilinçlidirler. İkincisi: Tek bir büyük dil modelinin bağlama, yönlendirmeye ve benzerlerine bağlı olarak birden fazla aracıdan oluşan bir ekosistemi destekleyebileceği iddia edilebilir. Ancak en yapıcı cevaba odaklanmak gerekirse: daha birleşik büyük dil modellerinin mümkün olduğu görülüyor. Önemli bir tür, tek bir etmeni modellemeye çalışan etmen modelidir (veya kişi modeli veya yaratık modeli). Character.AI gibi sistemlerde bunu yapmanın bir yolu, genel bir LLM almak ve o aracıyı simüle etmeye yardımcı olmak için bir kişiden gelen metni kullanarak ince ayar veya hızlı mühendislik kullanmaktır. Mevcut temsilci modelleri oldukça sınırlıdır ve hala ayrılık belirtileri göstermektedir. Ancak temsilci modellerini daha derin bir şekilde eğitmek, örneğin bir LLM+ sistemini tek bir kişiden gelen verilerle sıfırdan eğitmek prensipte muhtemelen mümkündür. Tabii ki bu, özellikle gerçek insanlar söz konusu olduğunda zor etik sorunları gündeme getiriyor. Ancak örneğin tek bir farenin algı-eylem döngüsünü modellemeye de çalışılabilir. Prensip olarak acente modelleri, mevcut LLM’lerden çok daha birleşik olan LLM+ sistemlerine yol açabilir. Böylece itiraz bir kez daha zorluğa dönüşüyor: Birleşik temsilci modelleri olan LLM+’lar oluşturmak. Şimdi, mevcut LLM’lerde bilinç ve kayıp için gerekli olabilecek X için altı aday verdim. Elbette başka adaylar da var: yüksek düzeyde temsil (kişinin kendi modelleriyle ilişkili olan kendi bilişsel süreçlerini temsil etmesi), uyarandan bağımsız işleme (yinelenen işlemlerle ilgili olan girdiler olmadan düşünme), insan düzeyinde akıl yürütme (kendilik modelleriyle ilgili olan, LLM’lerin sergilediği birçok iyi bilinen akıl yürütme problemi) ve daha fazlası. Dahası, aslında bilinç için gerekli olan bilinmeyen X’lerin olması da tamamen mümkündür. Yine de bu altısının büyük dil modeli bilincinin önündeki en önemli mevcut engelleri içerdiği iddia edilebilir.

Belki biyoloji dışındaki tüm bu itirazlara rağmen, itiraz kalıcı olmaktan ziyade geçici gibi görünüyor.

İşte engellere ilişkin değerlendirmem. Bunlardan bazıları bilinçle ilgili son derece tartışmalı öncüllere dayanıyor; en açık şekilde bilincin biyoloji gerektirdiği ve belki de duyusal temellendirmenin gerekli olduğu iddiası. Diğerleri, mevcut LLM’lerin dünya modellerinden yoksun olduğu iddiası gibi, LLM’lerle ilgili açık olmayan önermelere güveniyorlar. Belki de en güçlü itirazlar, mevcut LLMlerin (veya en azından GPT sistemleri gibi paradigmatik LLMlerin) ilgili X’ten yoksun olmasının ve aynı zamanda bilincin X’e ihtiyaç duymasının makul olduğu tekrarlayan işlemlerden, küresel çalışma alanından ve birleşik kurumdan gelen itirazlardır. Yine de: Belki biyoloji dışındaki tüm bu itirazlara rağmen, itiraz kalıcı olmaktan ziyade geçici gibi görünüyor. Diğer beşi için ise X’in söz konusu olduğu LLM veya LLM+ sistemlerinin geliştirilmesine yönelik bir araştırma programı bulunmaktadır. Çoğu durumda, bu X’lere sahip en azından basit sistemler zaten mevcut ve önümüzdeki on veya yirmi yıl içinde bu X’lere sahip sağlam ve karmaşık sistemlere sahip olmamız tamamen mümkün görünüyor. Dolayısıyla mevcut LLM sistemlerinde bilince karşı olan durum, gelecekteki LLM+ sistemlerindeki bilince karşı olan durumdan çok daha güçlüdür.

IV. Sonuç

Büyük Dil Modeli bilincinin lehine veya aleyhine olan genel durum nerede duruyor? GPT sistemleri gibi mevcut Büyük Dil Modelleri söz konusu olduğunda: Bu sistemlerde bilinci reddetmenin nedenlerinden hiçbirinin kesin olmadığını düşünüyorum, ancak toplu olarak toplanıyorlar. Açıklama amacıyla bazı son derece kaba sayılar atayabiliriz. Ana akım varsayımlara göre, bilinç için biyolojinin gerekli olduğuna dair en az üçte bir şansın (yani en az üçte birlik öznel bir olasılığa veya güvene sahip olmanın) olduğunu düşünmek mantıksız olmayacaktır. Aynı şey duyusal temellendirme, kişisel modeller, yinelenen işleme, küresel çalışma alanı ve birleşik eylemlilik gereklilikleri için de geçerlidir. Eğer bu altı faktör bağımsız olsaydı, bundan bir sistemin tüm özelliklerden yoksun olması ihtimalinin onda birden az olduğu sonucu çıkacaktı. altısı, mevcut paradigmatik büyük dil modeli gibi bilinçli olacaktır. Tabii ki faktörler bağımsız değil, bu da rakamı biraz daha yukarı çekiyor. Öte yandan, dikkate almadığımız diğer potansiyel X gereksinimleri nedeniyle bu rakam daha da düşebilir. Tüm bunları hesaba katmak, mevcut büyük dil modeli bilincinde yüzde 10’un altında bir güvene sahip olmamızı sağlayabilir. Rakamları çok fazla ciddiye almamalısınız (bu yanıltıcı bir kesinlik olacaktır), ancak genel kanı şu ki, bilinçle ilgili ana akım varsayımlar göz önüne alındığında, GPT sistemleri gibi mevcut paradigmatik LLM’lerin bilinçli olduğuna dair düşük bir inanca sahip olmak mantıklıdır. Gelecekteki büyük dil modelleri ve uzantıları söz konusu olduğunda işler oldukça farklı görünüyor. Gelecek on yıl içinde duyulara, bedene, dünya modellerine ve benlik modellerine, yinelenen işlemlere, küresel çalışma alanına ve birleşik hedeflere sahip sağlam sistemlere sahip olmamız tamamen mümkün görünüyor. (Perceiver IO gibi çok modlu bir sistemin halihazırda muhtemelen duyuları, somutlaşması, küresel bir çalışma alanı ve bir yinelenme biçimi vardır; en bariz zorlukları ise dünya modelleri, kişisel modeller ve birleşik failliktir.) Bence bu olmazdı. On yıl içinde tüm bu özelliklere sahip gelişmiş LLM+ sistemlerine (yani, bilinçli olduğunu varsaydığımız hayvanların davranışlarıyla karşılaştırılabilir görünen davranışlara sahip LLM+ sistemlerine) sahip olacağımıza yüzde 50’nin üzerinde bir güven duymamız mantıksız. Ayrıca tüm bu özelliklere sahip karmaşık sistemler geliştirirsek bilinçli olacaklarına en az yüzde 50 güven duymak da mantıksız olmaz. Bu rakamların toplamı bize yüzde 25 veya daha fazla bir güven bırakacaktır. Tekrar ediyorum, kesin rakamları fazla ciddiye almamalısınız, ancak bu mantık, ana akım varsayımlara göre, on yıl içinde bilinçli LLM+’lara sahip olmamızın ciddi bir olasılık olduğunu gösteriyor. Buna yaklaşmanın bir yolu, insan olmayan çeşitli hayvanların kapasitelerini sanal olarak somutlaşmış sistemlerde eşleştirmeye yönelik “NeuroAI” mücadelesinden geçiyor. Önümüzdeki on yılda insan seviyesindeki bilişsel kapasitelere ulaşamasak bile, dünya modelleri, tekrarlanan işlemler, birleşik hedefler vb. ile somutlaşmış bir sistemde fare seviyesindeki kapasitelere ulaşma konusunda ciddi bir şansımız olacağı tartışılabilir. Eğer o noktaya ulaşırsak, o sistemlerin bilinçli olma ihtimali ciddi bir şekilde ortaya çıkacaktır. Bu şansları çoğaltmak bize on yıl içinde en azından fare düzeyinde bir bilince sahip olma şansını veriyor. Bunu dokuzuncu zorluk olarak görebiliriz: fare düzeyinde kapasitelere sahip çok modlu modeller oluşturmak. Bu, fare düzeyindeki bilince ve en sonunda da daha aşağılarda insan düzeyindeki bilince doğru bir basamak olacaktır. Elbette burada anlamadığımız çok şey var. Anlayışımızdaki en büyük boşluklardan biri bilinci anlamamamızdır. Bu, dedikleri gibi zor bir problem. Bu da onuncu bir zorluğu ortaya çıkarıyor: Bilinçle ilgili daha iyi bilimsel ve felsefi teoriler geliştirmek. Bu teoriler son birkaç on yılda çok yol kat etti ancak daha fazla çalışmaya ihtiyaç var.

Where future LLMs and their extensions are concerned, things look quite different.

Bir diğer önemli boşluk da bu büyük dil modellerinde neler olup bittiğini gerçekten anlamamamızdır. Makine öğrenimi sistemlerini yorumlama projesi uzun bir yol kat etti ama aynı zamanda kat etmesi gereken çok uzun bir yol var. Yorumlanabilirlik on birinci zorluğu ortaya çıkarıyor: Büyük Dil Modelinde neler olup bittiğini anlamak. Buradaki zorlukları, dört temel zorluğun ardından yedi mühendislik odaklı zorluk ve soru biçimindeki on ikinci zorlukla özetliyorum. Kanıt: Bilinç için kriterler geliştirin. Teori: Daha iyi bilimsel ve felsefi bilinç teorileri geliştirin. Yorumlanabilirlik: Büyük Dil Modelinde neler olduğunu anlayın. Etik: Bilinçli yapay zeka oluşturmalı mıyız? Sanal dünyalarda zengin algı-dil-eylem modelleri oluşturun. Güçlü dünya modelleri ve kişisel modeller ile LLM+’lar oluşturun. LLM+’ları gerçek bellek ve gerçek yinelemeyle oluşturun. Küresel çalışma alanına sahip LLM+’lar oluşturun. Birleşik temsilci modelleri olan LLM+’lar oluşturun. Bilincin eğitimsiz özelliklerini tanımlayan LLM+’ler oluşturun. Fare düzeyinde kapasitelere sahip LLM+’ler oluşturun. Bilinçli yapay zeka için bu yeterli değilse: Eksik olan ne? On ikinci zorluk hakkında: Önümüzdeki on veya yirmi yılda tüm mühendislik zorluklarını tek bir sistemde karşıladığımızı varsayalım. O zaman bilinçli yapay zeka sistemlerine sahip olacak mıyız? Herkes bizim yaptığımızı kabul etmeyecektir. Ancak birisi aynı fikirde değilse bir kez daha sorabiliriz: Eksik olan X nedir? Peki bu X bir yapay zeka sistemine yerleştirilebilir mi? Benim vardığım sonuç, önümüzdeki on yıl içinde, insan düzeyinde yapay genel zekaya sahip olmasak bile, ciddi bilinç adayı sistemlere sahip olabileceğimizdir. Makine öğrenimi sistemlerinde bilince giden yolda pek çok zorluk vardır, ancak bu zorlukların üstesinden gelmek, bilinçli yapay zekaya yönelik olası bir araştırma programını ortaya çıkarır. Etik zorluğu yineleyerek bitireceğim.4 Bu araştırma programını sürdürmemiz gerektiğini iddia etmiyorum. Bilinçli yapay zekanın arzu edilir olduğunu düşünüyorsanız, program bu noktaya ulaşmak için bir tür yol haritası görevi görebilir. Bilinçli yapay zekanın kaçınılması gereken bir şey olduğunu düşünüyorsanız program kaçınılması en iyi yolları vurgulayabilir. Temsilci modelleri oluşturma konusunda özellikle dikkatli olurdum. Bununla birlikte, bunun yapay zeka bilincinin peşinde koşmak olduğunu düşünseler de düşünmeseler de, araştırmacıların bu araştırma programının birçok öğesini takip etmelerinin muhtemel olduğunu düşünüyorum. Bilmeden ve düşünmeden yapay zeka bilincine rastlamak bir felaket olabilir. Dolayısıyla bu olası yolları açık bir şekilde ortaya koymanın en azından bilinçli yapay zeka hakkında derinlemesine düşünmemize ve bu konuları dikkatle ele almamıza yardımcı olacağını umuyorum. Sonsöz Kasım 2022’nin sonlarında NeurIPS konferansında bu dersi verdiğimden sekiz ay sonra işler şimdi nasıl görünüyor? GPT-4 gibi yeni sistemlerin hâlâ pek çok kusuru olsa da, bunlar bu makalede tartışılan bazı boyutlar açısından önemli bir ilerlemedir. Kesinlikle daha karmaşık konuşma yetenekleri sergiliyorlar. GPT-3’ün performansının çoğu zaman sofistike bir çocukla aynı seviyede göründüğünü söylediğimde, GPT-4’ün performansı çoğu zaman (her zaman değil) bilgili bir genç yetişkinle aynı seviyede görünüyor. Aynı zamanda çok modlu işleme ve etmen modellemede ve daha az ölçüde de tartıştığım diğer boyutlarda da ilerlemeler olmuştur. Bu ilerlemelerin analizimi temelden değiştireceğini düşünmüyorum, ancak ilerleme beklenenden daha hızlı olduğu sürece beklenen zaman çizelgelerini kısaltmak mantıklıdır. Eğer bu doğruysa, bu makalenin sonuna doğru tahminlerim biraz muhafazakar bile olabilir.

Notlar 1. Filozof Jonathan Birch, hayvan bilincine yönelik yaklaşımları “teori ağırlıklı” (tam bir teori varsayar), “teori-nötr” (teorik varsayımlar olmadan ilerleyin) ve “teori-hafif” (zayıf teorik varsayımlarla devam edin) olarak birbirinden ayırır. . Benzer şekilde yapay zeka bilincine yönelik teori ağırlıklı, teori açısından nötr ve teoriye dayalı yaklaşımlar da benimsenebilir. Benim burada benimsediğim yapay bilince yaklaşım bu üçünden farklıdır. Bu, birden fazla teorinin tahminlerini hesaba katan, belki de bu teorilerin kanıtlarına veya bu teorilerin kabulüne göre kişinin güvenini bunlar arasında dengeleyen, teori dengeli bir yaklaşım olarak düşünülebilir. Teori dengeli yaklaşımın daha kesin bir biçimi, çeşitli teorilerin uzmanlar arasında ne kadar yaygın olarak kabul edildiğine ilişkin verileri, bu teorilere güven sağlamak için kullanabilir ve bu güveni, yapay zeka (veya hayvan) bilincine ilişkin olasılıkları tahmin etmek için çeşitli teorilerin tahminleriyle birlikte kullanabilir. . Bilinç bilimi alanındaki araştırmacılar arasında yakın zamanda yapılan bir ankette, yanıt verenlerin yüzde 50’den biraz fazlası, küresel çalışma alanı bilinci teorisini kabul ettiklerini veya umut verici bulduklarını belirtirken, yüzde 50’den biraz azı, yerel yinelenme teorisini (ki bu teori) kabul ettiklerini veya umut verici bulduklarını belirtti. bilinç için tekrarlanan işlemler gerektirir). Diğer teorilere ilişkin rakamlar, tahmine dayalı işleme teorileri (AI bilinci için net tahminler yapmayan) ve daha yüksek dereceli teoriler (bilinç için öz modeller gerektiren) için yüzde 50’nin biraz üzerinde ve entegre bilgi teorisi için yüzde 50’nin biraz altını (ki bu da) içerir. bilinci birçok basit sisteme atfeder ancak bilinç için tekrarlanan işlemler gerektirir). Elbette bu rakamları kolektif inanışlara dönüştürmek daha fazla çalışma gerektirir (örneğin, “kabul et” ve “umut verici bul” ifadelerini inanışlara dönüştürmek gibi), bu inanışları yapay zeka bilinci hakkında kolektif inanışlar elde etmek için teorik tahminlerle birlikte uygulamak da öyle. Yine de, bilincin gereklilikleri olarak küresel çalışma alanı, tekrarlanan işlemler ve benlik modellerinin her birine kolektif olarak üçte birin üzerinde bir güven vermek mantıksız görünmüyor. Peki ya bir zorunluluk olarak biyoloji? Profesyonel filozofların 2020’de yaptığı bir ankette, yaklaşık yüzde 3’ü mevcut yapay zeka sistemlerinin bilinçli olduğu görüşünü kabul etti ya da bu görüşe olumlu yaklaştı; yüzde 82’si bu görüşü reddediyor veya karşı çıkıyor ve yüzde 10’u tarafsız. Yaklaşık yüzde 39’u gelecekteki yapay zeka sistemlerinin bilinçli olacağı görüşünü kabul etti ya da destekledi; yüzde 27’si bu görüşü reddediyor ya da karşı çıkıyor ve yüzde 29’u tarafsız. (Yaklaşık yüzde 5’lik bir kesim, soruları çeşitli şekillerde reddetti; örneğin, konuyla ilgili hiçbir gerçeğin bulunmadığını ya da sorunun yanıtlanamayacak kadar belirsiz olduğunu söyledi). Gelecekteki yapay zeka rakamları, bilinç için biyolojinin gerekli olduğuna dair en az üçte birinin kolektif inancını öne sürme eğiliminde olabilir (her ne kadar bilinç araştırmacıları yerine filozoflar arasında olsa da). İki araştırmada, bilincin gereklilikleri olarak birleşik faillik ve duyusal topraklama hakkında daha az bilgi bulunmaktadır. 2. Bilinç bilimindeki ana akım görüşlerle karşılaştırıldığında, benim görüşlerim bilincin daha yaygın olduğu yönünde. Bu nedenle, burada ana hatlarını çizdiğim çeşitli önemli bilinç gereksinimlerine biraz daha az güveniyorum ve sonuç olarak mevcut Geniş Dil Modeli bilincine ve gelecekteki LLM+ bilincine biraz daha yüksek güveniyorum. 3. NeurIPS’te “balık düzeyinde kapasiteler” dedim. Bunu “fare düzeyindeki kapasiteler” olarak değiştirdim (muhtemelen prensip olarak daha zor bir zorluk), bunun nedeni kısmen farelerin bilinçli olduğuna balıkların bilinçli olduğundan daha fazla kişinin güvenmesi ve kısmen de fare üzerinde çok daha fazla iş yapılmasıdır. Balık bilişinden ziyade biliş. 4. Bu son paragraf, NeurIPS konferansında sunduklarıma bir ektir.

David Chalmers