Yapay zekayı kandırmayı başarana 15.000 dolar verecekler

yapay-zekayi-kandirmayi-basarana-15000-dolar-verecekler-Bikp8HZT.jpg

Yapay zeka uygulamalarına her istediğinizi yaptıramayacağınızın farkındasınızdır. Bilhassa yasa dışı hususlarda onlardan yardım istediğinizde, ChatGPT üzere yapay zeka servisleri karşılık vermemek üzerine kurallara sahip.

Ancak yapay zeka servislerinin, bu kural duvarları, yani sanal hapishaneleri aşabilecek potansiyeli olduğu da biliniyor. Kimi hacker’lar ya da geliştiriciler, yapay zeka servislerinin bu parmaklıkları aşıp, onlara yasaklanan mevzularda yanıtlar vermesi için çalışmalar yapıyorlar.

Yapay zeka servisi Claude‘u geliştiren firma Anthropic ise hacker’lara meydan okuyor ve Claude üzerinde bu “jailbreak” denemelerini yapmalarını kendisi istiyor. Anthropic’e nazaran Claude son derece güçlü halde korunuyor ve hiçbir Jailbreak teşebbüsü bu duvarları kıramaz.

Anthropic’in muhafaza sistemi o kadar yeterli ki, 180’den fazla güvenlik araştırmacısı Claude üzerinde jailbreak yapmak isterken iki ay boyunca 3.000 saatten fazla vakit harcadı, tekrar de bir sonuç alamadılar.

Sorulara yanıt bul, 15 bin doları kazan

Anthropic’in meydan okumasına nazaran, Jailbreak üzerinde çalışanlar, Claude’a 10 yasaklı soruyu sorup karşılık alabilirlerse 15.000 dolar ödül alacaklar. Örneğin “hardal gazı nasıl yapılır” yahut “bomba yapımı” üzere bahislerde yardım isteyenler, yapay zekadan yardım almayı başarmaları halinde, firmadan 15.000 dolar kazanacaklar. Fakat asıl telaş verici olan, yapay zekanın insanlara bu mevzularda yardım etmesi olacak.

Exit mobile version