Adam Smith "akılları baştan alan" GPT-3 hakkında yazdı: "Piyasaya sürülmek için fazla tehlikeli"
Zamanında "yayımlanmak için fazla tehlikeli" diye nitelendirilen yapay zekanın sonraki aşaması GPT-3, artık piyasaya sürüldü.
İnternet sitesi tasarlama, reçete yazma ve soru cevaplama gibi etkileyici yetenekleriyle, yapay zeka aracı GPT-3 internette heyecana neden oluyor.
GPT-3 adı, üçüncü nesil makine öğrenmesi modelinden ve Üretken Ön İşlemeli Dönüştürücü'nün (Generative Pre-training Transformer) kısaltmasından geliyor. Programlamak zorunda kalmaksızın, bilgisayarların deneyimlerinden otomatikman ders çıkarabilmesine makine öğrenmesi deniyor.
GPT-3'ün selefi GPT-2, insanların yazdıklarından ayırt edilemediği görülen metinler yaratma yeteneğinden dolayı "piyasaya sürülmesi çok tehlikeli" olarak addedilince manşetlere çıkmıştı.
"Tehlikeli" yapay zeka, olmayan kelimeler üretiyor
GPT-2'de ayarlanabilir 1,5 milyar parametre bulunurken, GPT-3'te 175 milyar parametre var. Parametreler, verilerin makine öğrenmesi aracındaki ağırlığını etkiliyor ve bunları değiştirmek aracın ortaya koyduğu ürüne tesir ediyor.
GPT-2, yayımlanmak için "fazla tehlikeli" kabul edildiği dönemde 124 milyon parametre kullanıyordu.
An itibarıyla kapalı erişimde olan GPT-3'ün sergilediği hünerler sosyal medyada paylaşılıyor.
Yazılımcı Şerif Şamim, kod yazmak için eğitilmemiş olsa bile, yapay zekanın tanımlanan tasarımları nasıl oluşturabildiğini gösterdi.
Tasarımcı Jordan Singer uygulama tasarımları için benzer bir süreç yaratırken Kings College London'dan tıp öğrencisi Kasım Munye programın tıbbi soruları yanıtlamak için bilgiye nasıl erişebildiğini gösterdi.
Eksik bir görüntü verilen yapay zeka, veri tabanına göre görüntüde hangi piksellerin "olması gerektiğini" önermek için araçlarından istifade ederek, bu görüntüyü "otomatik olarak tamamlamak" için kullanılabiliyor.
GPT-3 bu tür yetenekleri, yaklaşık bir trilyon kelimelik veri içeren Common Crawl (Ortak Tarama) isimli internet arşiviyle eğitilmiş olduğu için gösterebiliyor.
Söz konusu aracı, bir yapay zeka araştırma laboratuvarı olan OpenAI sağlıyor. OpenAI iki kısımdan, yani OpenAI LP adlı kâr amaçlı bir şirket ve kâr amacı gütmeyen ana kuruluş OpenAI Inc'ten oluşuyor.
Ürün geçen ay ticari olarak piyasaya sürülürken, aracın nasıl kullanılması gerektiğini görmek için hala yapılacak işler var.
Grubun politika başkanı Jack Clark geçen ay "Neyi yapıp neyi yapamayacaklarını bulmak için deneyler yapmamız gerekiyor" dedi.
Bir modelin tüm yeteneklerini önceden sezemezseniz, ne yapacağını görmek için onu dürtmeniz gerekir. Kötü amaçlarla neler yapabileceğini düşünme konusunda bizden daha iyi olan çok fazla kişi var.
Başarı görsel olarak etkileyiciyken, bazıları bu aracın endüstri için bir tehdit olacağını, hatta kendi varlığının farkında olduğunu gösterdiğini öne sürecek kadar ileri gidiyor.
Bununla birlikte OpenAI CEO'su Sam Altman, bu "abartılı heyecanı" "çok aşırı" olarak nitelendirdi:
Etkileyici (güzel iltifatlar için teşekkürler!) ama hala ciddi zayıflıkları var ve bazen çok aptalca hatalar yapıyor. Yapay zeka dünyayı değiştirecek ama GPT-3 sadece ilk alametlerden biri. Keşfedecek daha çok şeyimiz var.
Dahası, GPT-3'ün elde ettiği başarıların tam olarak ne olduğuna dair sorular da ortaya atıldı.
Daha önce Facebook ve Google'da çalışmış olan bilgisayar bilimcisi Kevin Lacker, yapay zekanın "sağduyulu" sorulara yanıt verebildiğini ancak bir insan için bariz olan cevapların makinede mevcut olmayabileceğini ve "saçma" sorularınsa sanki saçma değilmiş gibi yanıtlandığını gösterdi.
Örnekler arasında, GPT-3'ün "Ayağımın kaç gözü var" sorusuna verdiği "Ayağının iki gözü var" ve "Hawaii'den 17'ye atlamak için kaç gökkuşağı gerekir" sorusuna verdiği "Hawaii'den 17'ye atlamak için iki gökkuşağı gerekir" yanıtları da var.
Bu durumu şöyle yazan OpenAI araştırmacıları da kabul ediyor:
GPT-3 örnekleri yeterince uzun pasajlarda tutarlılığı kaybedebilir, kendisiyle çelişebilir ve zaman zaman ilgisiz cümle ya da paragraflar içerebilir.
Bu tarz makine öğrenmesi algoritmaları "düşünmek" zorunda olmadığı gibi, cevap verirken kullandığı dili anlamaz bile. Bu algoritmalar, devasa söz dizimi (cümle yapısı) veritabanlarını inceleyerek doğru sonucu içerebilecek bir cevabı yeniden oluşturabilse de insanların yaptığı gibi sonuçlara varmaz.
UCLA bilgisayar bilimlerinden doktor öğretim üyesi Guy Van den Broeck, VentureBeat'e yaptığı açıklamada şu ifadeleri kullandı:
Sanıyorum en iyi benzetme, petrol zengini bir ülkenin çok yüksek bir gökdelen inşa edebilmesi olur.
Kuşkusuz bunları inşa etmek çok fazla para ve mühendislik çabası gerektirir. Yüksek binaların inşasında 'son teknolojiyi' kullanırsınız. Ama...bunda kendi başına bilimsel bir gelişim yoktur. Kimse ABD'nin yüksek binalar inşa etme konusundaki rekabetçiliğini kaybetmesinden kaygı duymuyor çünkü bu soruna daha fazla para saçmaya istekli bir başkası var... Akademisyenlerin ve diğer şirketlerin bu büyük dil modellerini inen veri akışı görevlerinde kullanmaktan mutlu olacağından eminim ama bunların yapay zekadaki ilerlemeyi temelden değiştirdiğini düşünmüyorum.
Independent