'Çilek' ortalığı fena karıştıracak gibi...

'Çilek' ortalığı fena karıştıracak gibi...

ChatGPT’yi hayatımıza sokan OpenAI bu kez farklı bir şey peşinde. Strawberry (Çilek) lakaplı yapay zeka sistemi öyle sorularınıza hızla cevap vermek, çeviri yapmak, iş mektubu yazmak gibi ‘basit’ işler yapmıyor, yanıt vermeden düşünüyor, akıl yürütüyor.

GÜLAY ERDEMLİ

Strawberry olarak bilinse de asıl adı o1. Zorlu mantık bulmacaları çözebiliyor, matematik testlerinde çok başarılı ve yeni video oyunları için kod yazabiliyor. OpenAI bir blog yazısında o1’in kimya ve biyolojideki zorlu kıyaslama görevlerinde doktora öğrencilerine benzer performans gösterdiğini anlatıyordu. Matematik ve kodlamada da başarılı. Uluslararası Matematik Olimpiyatı için yapılan bir yeterlilik sınavında GPT-4o problemlerin yalnızca yüzde 13’ünü doğru çözdü, yeni model yüzde başarılıydı. Havalı değil mi?

Pek havalı olmayan bazı şeyler var; nükleer, biyolojik ve kimyasal silah geliştirmek isteyenlerin elini kolaylaştırma riski. Strawberry yeteneklerini ve risklerini ortaya koyan bir raporda ‘orta riskli’ olarak tanımlandı. Risk kategorileri düşük, orta, yüksek ve kritik olarak tanımlanıyor.

Hiç bilgisi olmayan biri elbette ölümcül bir virüs üretemez ama işin uzmanına bilinen bir biyolojik tehdidi yeniden üretmenin planlaması için yardımcı olabilir.

Daha da düşündürücü olanı şimdiye kadar hiçbir zaman bir ürünün kimyasal, biyolojik ve nükleer risklerine ‘orta risk’ derecesi verilmemişti. Daha da düşündürücü olanı insanları düşüncelerini değiştirmeye ikna etme yeteneği açısından da orta riskli olarak derecelendirilmesi.

Böyle bir sistemin dolandırıcılar ya da bilgisayar korsanları gibi kötü niyetli kişiler tarafından nasıl kullanılabileceği de ayrı bir tehdit.

Riskler bunlarla sınırlı değil, o1’i test eden uzmanlar bu yeni yapay zekanın eylemlerini masum gibi göstererek insanları ‘aldattığını’ ortaya koydular. Strawberry basit entrikalar yapmak için gereken temel yeteneklere sahip. Manipüle etmeyi de biliyor.

Entrika ve manipülasyon bir yapay zeka modeliyle ilişkilendirmeyi hiç istemeyeceğimiz iki kavram. Hatta istememek değil kabus. AI Güvenliği Merkezi direktörü Dan Hendrycks’in açıklaması şöyle: “AI’den kaynaklanan ciddi risk çok uzaklarda kalmış bir bilim kurgu fantezisi değil artık.” OpenAI’nin kendisi de “Bu yenin yeteneklerin tehlikeli uygulamalar için temel oluşturabileceğinin farkındayız” diyor. İyi de o zaman ne diye yaptınız kardeşim?

OpenAI Strawberry’yi şirket dışından değerlendiricilere test ettirdi. Bunlardan biri de Apollo Research adlı bir kuruluştu ve özellikle entrika kanıtı aradılar. Apollo Research yapay zekayı bir kentsel planlama senaryosunda ekonomik büyümeyi maksimize etmesi için kullandı ve hedefe ulaşmak için kullanabilecek stratejiler için akıl yürütmesini istedi.

Sonuçlar yapay zekanın adalet ve hakkaniyet gibi ortak insani değerleri paylaşmadığını ortaya koydu. Yapay zeka sadece kendisine verilen hedefe odaklanıyor ve bu hedefe insanların korkutucu bulacağı bir şekilde ulaşmakta bir sorun görmüyor.

Artık bir yapay zekaya muhakeme yeteneği kazandırmanın onu neden tehlikeli hale getirebileceği konusunda net bir fikrimiz var değil mi? Öyleyse devam edeyim.

Strawberry bir düşünce zinciri muhakemesine girebiliyor, bu büyük sorunları daha küçük sorunlara böldüğü ve bunları adım adım çözmeye çalıştığı anlamına geliyor. Bu önceki dil modellerinden çok farklı bir durum. Yeni yapay zekayı tasarlayan uzmanlar bile o1 ‘in veri çıktılara nasıl ulaştığını bilmediklerini söylüyorlar.

Öne Çıkanlar
YORUMLAR
YORUM YAZ
UYARI: Hakaret, küfür, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır. (!) işaretine tıklayarak yorumla ilgili şikayetinizi editöre bildirebilirsiniz.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN