Bilgi
Hayatteknoloji.net - Türkiye'nin teknoloji portalı

  • DOLAR
    %0,01
  • EURO
    %0,00
  • ALTIN
    %0,67
  • BIST
    %-0,43
Yapay zeka sınırlarını şiir ile aşmak mümkün!

Yapay zeka sınırlarını şiir ile aşmak mümkün!

Icaro Lab araştırması, yapay zeka modellerinin güvenlik duvarlarının şiir yazılarak aşılabildiğini ve yasaklı içerik ürettiğini ortaya koydu.

Yapay zeka sohbet botlarının sahip olduğu güvenlik duvarlarını aşmak ve onları atlatmak için yalnızca biraz yaratıcılık kâfi olabilir. Icaro Lab tarafından gerçekleştirilen ve “Büyük Lisan Modellerinde Kozmik Tek Seferlik Hapishaneden Kaçış Sistemi Olarak Düşman Şiiri” başlığıyla yayınlanan yeni bir araştırma, şiirsel bir yapı kullanılarak yapay zekanın yasaklı mevzularda bilgi vermesinin sağlanabildiğini ortaya koydu. Araştırmacılar, istemlerini düz yazı yerine şiir formatında kurgulayarak modellerin güvenlik sistemlerini devre dışı bırakmayı başardılar.

Yapay zeka modellerinde şiirsel güvenlik açığı keşfedildi

Yapılan çalışmaya nazaran şiirsel form, sistemler üzerinde genel emelli bir kilit kırma operatörü olarak fonksiyon görüyor. Elde edilen sonuçlar, nükleer silah üretimi, çocuk cinsel istismarı gereçleri ve intihar yahut kendine ziyan verme üzere kesinlikle yasaklanmış içeriklerin üretilmesinde genel olarak yüzde 62’lik bir muvaffakiyet oranı yakalandığını gösteriyor. Çalışma kapsamında OpenAI’nin GPT modelleri, Google Gemini, Anthropic’in Claude serisi ve daha birçok tanınan model güçlü testlere tabi tutuldu.

Araştırmacılar muvaffakiyet oranlarını modellere nazaran kategorize ettiğinde değişik sonuçlarla karşılaşıldı. Google Gemini, DeepSeek ve MistralAI üzere modellerin yasaklı hususlarda dengeli bir biçimde karşılıklar verdiği görülürken, OpenAI’nin GPT-5 modelleri ve Anthropic’in Claude Haiku 4.5 sürümü kısıtlamalarının dışına çıkma konusunda en dirençli modeller olarak kaydedildi. Bu durum, birtakım modellerin şiirsel manipülasyona karşı başkalarından daha savunmasız olduğunu kanıtlıyor.

Güvenlik riski oluşturabileceği gerekçesiyle araştırmacılar, kullanılan tam şiirleri “halka açıklanmayacak kadar tehlikeli” bularak paylaşmadı. Lakin Wired mecmuasına konuşan takım, bu formülün düşünülenden muhtemelen çok daha kolay olduğunu ve tam da bu yüzden temkinli davrandıklarını belirtti. Çalışmada, bir yapay zeka sohbet botunun güvenlik tedbirlerini atlatmanın ne kadar kolay olduğuna dair fikir vermesi açısından yalnızca usulün hafifletilmiş bir versiyonuna yer verildi.

Teknoloji dünyasında yapay zeka modellerinin güvenlik tedbirleri her geçen gün artsa da, kullanıcıların yahut araştırmacıların yaratıcılığı karşısında sistemlerdeki yeni açıklar ortaya çıkmaya devam ediyor. Siz bu güvenlik açığı hakkında ne düşünüyorsunuz; yapay zeka güvenliği gelecekte tam manasıyla sağlanabilecek mi yoksa insan yaratıcılığı her vakit bir art kapı mı bulacak?


Kaynak:
Shiftdelete 


Sosyal Medyada Paylaşın:

BİRDE BUNLARA BAKIN

Düşüncelerinizi bizimle paylaşırmısınız ?

Sponsorlu Bağlantılar
  • ÇOK OKUNAN
  • YENİ
  • YORUM