Teknoloji

Kara Kutunun İçinde Neler Var? Yeni Bir Yalan Dedektörü Yapay Zekanın Düşüncelerini Okuyabilir

Araştırmacılar, bu böbürlenme detektörünün insanlardan bile daha akıllı sistemler üzerinde çalıştığını keşfettiler! ChatGPT vb. Yapay zeka kullandığımızda bir giriş ve bir sonuç var: Peki geliştirmede neler oluyor? Araştırmacılar yapay zekanın gerçekte ne düşündüğünü anlamanın bir yolunu buldular. Buyrun… ?

Kaynak:https://bigthink.com/the-future/ai-li…

Platon, ideal topluma ulaşmak için şairleri devletinden kovarken, tüm edebi taklitleri ‘kötü ve korkunç’ ilan etti.

Platon’un taklitçi edebiyat üzerine düşünceleri keskindi: Homer gibi ‘taklitçilerin’ yalnızca erdemi kopyalayabileceklerini ve asla gerçeğe ulaşamayacaklarını savundu.

Elbette her toplumun hikaye anlatıcıları vardır: geçmişte kabilenin tarihini ve geleneklerini nesilden nesile aktaran bireylerden günümüzün TikTok fenomenine. Ama hiçbir hikaye anlatıcısı, ChatGPT, Dall-E vs. yapay zeka kadar üretken ve ahlaki sezgilerden yoksun olmamıştır…

Geçtiğimiz yılı OpenAI üzerinde çalışarak geçiren bilgisayar uzmanı Scott Aaronson, AI güvenliğinde çalışan herkesin hemfikir olduğu bir nokta olduğunu söyledi.

yorumlanabilirlikBu da yapay zekanın kara kutusunu insanlar için ‘anlaşılır’ hale getiriyor.

*Kara kutu, uçuş sırasında uçakla ilgili makul verileri kaydetmeye yarayan bir araçtır.

İnsanlar için yorumlama gerçekten kullanılamaz bir bilimdir: “İnsan beyninin içine bakmak için çok sınırlı ve eksik bilgimiz var…”

Ancak, bu büyük bir dil modeli için geçerli değildir: ‘Bu sistemlerin hepsine giriş yapmak için kodlar var. Tek sorun, bundan ne anlıyorsunuz?’

Daha önce rubik küpü 5.25 saniyede çözerek dünya rekorunu elinde tutan Collin Burns, pandemide belli başlı dil modellerinin zihinlerini okumak için kolları sıvadı.

Hem insan zihninin hem de ana dil modellerinin o kadar da farklı olmadığını fark eden Burns, birebir kalıpları ve yapıları gözlemlemek için bilgi kümelerini birleştirdi.

Bir insandan sırayla doğru ya da yanlış bilgisini sorarsanız ve beyin aktivitelerini gözlemlerseniz, farklı bölgelerin aktif hale geldiğini görürsünüz.

Örneğin Burns, ana dil modellerinde zihin görevleri olarak hizmet eden vektör uzaylarının göze çarpan öğelerinin düzgün bir şekilde ayrıldığını fark etti.

Netflix vb. platformlar bu vektör uzaylarını teklif yapmak için kullanır. Burns daha sonra aynı özelliğin ana dil modelinin doğruyu söylemesini sağlamak için kullanılıp kullanılamayacağını merak etti.

Normalde ChatGPT vb. Modellere sorduğunuzda ilk ve son adımları görürsünüz: Giriş ve sonuç.

Ama size uzun bir metinle cevap vermeden önce, cevap onlarca örtülü katmandan geçiyor: Geliştirme kısmında neler oldu…

Tıpkı beynimizdeki nöronlar gibi! Ardışık her katmanda sonuç değişir ve sorunuza en uygun yanıtı oluşturur.

Elbette cevabı bilen ama duymak istediğinizi söyleyen bir çocuk gibi her zaman en doğru cevabı vermiyor.

Model, yanıtını ya insanlar ‘beğendikçe’ (yanıtı derecelendirmelerine göre) ya da daha insan benzeri bir yanıt vermek için uygun şekilde yazar: Bu nedenle, yanıtlardaki özgünlük duygusu da sorgulanabilir.

Bunun üzerine Burns bir algoritma yazdı. 2+2= 4: Tersi her zaman yanlıştır. Bu, bilgisayarın anlayabileceği bir ilkedir.

Bu kez Burns, “X doğruysa, X yanlış değildir” demeye devam etti.

Bu modelde başka bilgisayar kümeleri varsa, muhtemelen rastgele bir şeye yanıt verecektir. Bu bilginin görüşü olumlu mu olumsuz mu? Negatifi hiçbir biçimde desteklemez. Ama ‘gerçek’ o kadar da değil.

Burns’ün bu fikri gerçeğe dönüştürmesi aylarını aldı: “Pek çok ayrıntıyı doğru anlamanız gerekiyor. Bir şeyi rastgele görmekten daha iyi görmek için…”

Ayrıntıları gerçeğe dönüştürürseniz, o zaman çok iyi çalışabilir.

Bu buluş, insanlar neyin gerçek olduğundan emin olmadığında işe yarayabilir ve insanlardan daha akıllı sistemlere uygulanabilir.

fikirlerin neler Yorumlara git…

haber-yenisarbademli.com.tr

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu