Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyor

Geçtiğimiz günlerde OpenAI, yeni bir makale yayınladı. Bu makalede eski GPT-2 modelindeki nöronların davranışları için açıklamalar yazmak üzere GPT-4 dil modelini kullanan bir tekniğin detaylarına yer veriliyor. Buradaki amaç ise sinir ağlarının ürettikleri çıktıları neden oluşturduklarını açıklamak.

Büyük dil modelleri (LLM) teknoloji dünyasını fethederken, yapay zeka (AI) araştırmacıları hala kaputun altındaki işlevsellikleri ve yetenekleri hakkında çok fazla şey bilmiyorlar. OpenAI, yayınlanan makalesinin ilk cümlesinde “Dil modelleri daha yetenekli hale geldi ve daha yaygın olarak kullanılmaya başlandı, ancak nasıl çalıştıklarını anlamıyoruzdiyerek bunu açıkça itiraf ediyor.

Neden çalıştıklarını bilmiyoruz

Çerçevenin dışından bakanlar için bu ifade, yalnızca LLM’lerden elde edilen gelire bağlı olmakla kalmayıp aynı zamanda onları insan ötesi muhakeme yeteneği seviyelerine çıkarmayı uman bir şirketten gelen çarpıcı bir itiraf gibi görünebilir.

Ancak bir sinir ağının bireysel nöronlarının çıktılarını üretmek için birlikte nasıl çalıştığını tam olarak “bilmeme” durumunun iyi bilinen bir adı bulunuyor: Kara kutu. Yani, mevcut durumda yapay zeka sistemlerinden bir şeyler istiyoruz ve onlar da bir bizlere bir cevap veriyor, fakat bu iki işlem arasındaki süreçte (kara kutu) ne olduğu bir gizem.

Kara kutunun içine bakmak amacıyla OpenAI’daki araştırmacılar GPT-4 dil modelini kullanarak GPT-2 gibi çok daha az karmaşık bir dil modelindeki nöronların davranışları için doğal dil açıklamaları oluşturdu ve değerlendirdi. Teoride, yorumlanabilir bir AI modeline sahip olmak, bu sistemlerin istendiği bir şekilde çalışmasına katkıda bulunabilir.

Çalışma şekilleri anlaşılabilirse eksiklikleri giderilebilir

Bilindiği üzere insan beyninde 100 milyar civarında nöron bulunuyor. Bir sinir ağında nöron, bilgiyi alan, işleyen ve bir çıktı üreten küçük bir karar verme birimi gibidir, tıpkı aldığı sinyallere göre karar veren küçük bir beyin hücresi gibi. OpenAI’da bu yapay zeka nöronlarının çalışma şeklini anlamaya çalışıyor fakat görünüşe göre en azından şimdilik en gelişmiş yapay zeka modellerinden olan GPT-4 bile nöronları yorumlamakta zayıf kalıyor.

OpenAI araştırmacıları, yapay zeka modelleri daha gelişmiş hale geldikçe, üretilen açıklamaların kalitesinin artacağını ve bu karmaşık sistemlerin iç işleyişine dair daha iyi bilgiler sunacağını umuyor. OpenAI, araştırma makalesini, her adımın örnek dökümlerini içeren, metnin vurgulanan kısımlarını ve bunların belirli nöronlara nasıl karşılık geldiğini gösteren etkileşimli bir web sitesinde yayınladı. Firma çalışmalarına devam edeceğini belirtiyor.

Eğer “yorumlanabilirlik” alanında istenen başarı sağlanırsa o zaman ChatGPT ve diğerlerinin neden bir şeyler uydurduğunu anlayabilir ve bu kritik sorun çözülebilir. Zira bu, tıpkı insanların hastalandıklarında tedavi edilmeleri gibi bir süreç. Bir sorunumuz varsa hastaneye gider muayene olur ve teşhis konulur. Teşhis konulunca da buna göre ilaç verilir. Şimdilik yapay zeka modellerini kesin doğrulukla “muayene” edemiyoruz.

Yorum yapın

bursa escort kocaeli escort izmit escort escort bursa ankara escort pendik escort tuzla escort
bursa escort kusadası escort davutlar escort gorukle bursa görükle escort bursa bayan escort tuzla escort
bursa escort bursa merkez escort bursa ucuz escort
izmit escort kocaeli escort
bursa escort görükle escort
görükle escort bursa escort bayan bursa merkez escort bursa sınırsız escort bursa otele gelen escort
gaziantep escort porno izlegaziantep escortporno izle baywin istanbul escort
kocaeli escort escort bayan yahya kaptan escort darıca escort gebze escort gölcük escort izmit escort kocaeli escort bayan izmit escort bayan izmit sınırsız escort izmit eve gelen escort izmit anal yapan escort izmit otele gelen escort
yalova escort
escort ankara
bursa escort bursa escort bayan bursa escort görükle escort bursa escort bayan bursa ucuz escort casibom görükle escort bursa escort ataşehir escort