Bilgi
Hayatteknoloji.net - Türkiye'nin teknoloji portalı

  • DOLAR
    %0,04
  • EURO
    %0,12
  • ALTIN
    %0,49
  • BIST
    %-0,21
Anthropic Sözünden Döndü!

Anthropic Sözünden Döndü!

Anthropic, yapay zeka güvenliği politikasını esnetti. Claude’un geliştiricisinden rekabet uğruna değişen güvenlik kurallarının detayları.

Claude’un geliştiricisi olan yapay zeka şirketi Anthropic, Time dergisine verdiği bir röportajda güvenlik politikalarında çok büyük bir değişikliğe gittiğini doğruladı. Şirket, gerekli güvenlik önlemlerini önceden garanti altına almadan yeni yapay zeka modelleri eğitmeyeceği veya bunları piyasaya sürmeyeceği yönündeki o meşhur temel sözünden resmen vazgeçtiğini açıkladı.

Anthropic Geri Adım Attı: Yapay Zeka Güvenliğinde Kurallar Değişiyor

Daha önce onu sektörel rakiplerinden ayıran bu katı politikasını değiştiren Anthropic, artık daha esnek bir yaklaşım benimseyecek. Şirket bundan böyle yapay zeka geliştirmelerini tamamen durdurmak gibi katı ön koşullar yerine, hazırlayacağı şeffaflık raporlarına ve güvenlik yol haritalarına güveneceğini belirtti.

Şirket yöneticileri alınan bu kararın ideolojik bir geri adım değil, tamamen pragmatik bir tercih olduğunu vurguluyor. Hızla gelişen yapay zeka pazarındaki yoğun ticari rekabet ve jeopolitik aciliyet, şirketin tek taraflı kısıtlamalara devam etmesini mantıksız bir hale getirdi.

Yeni duyurulan “Sorumlu Ölçeklendirme Politikası” kapsamında Anthropic, yetenekleri ve olası tehditleri değerlendiren düzenli Risk Raporları ile birlikte Sınır Güvenliği Yol Haritaları yayımlayacak. Şirket yalnızca alanda lider konumda olduğuna inanırsa ve felaket boyutunda büyük bir risk tespit ederse geliştirme sürecini duraklatacak. Ancak tüm riskler çözülene kadar eğitimi peşinen durdurma sözü artık geçerli olmayacak.

Rekabet Güvenliği Yendi: Anthropic Yapay Zeka Sınırlarını Esnetiyor

Son kullanıcılar günlük hayatlarında Claude veya diğer yapay zeka araçlarını kullanırken herhangi bir değişiklik fark etmeyebilir. Ancak perde arkasındaki bu eğitim kuralları, sistemin doğruluk payından dolandırıcılık amaçlı kötüye kullanımına kadar pek çok önemli unsuru doğrudan belirliyor.

Anthropic şu anda hem gelir hem de ürün portföyü açısından OpenAI ve Google gibi devleri geride bırakarak çok hızlı büyüyor; hatta Super Bowl reklamlarında ChatGPT’ye reklam gelmesiyle dalga geçecek kadar iddialı bir konumda. Ancak şirketin eski katı güvenlik kurallarını bu büyümenin önünde ciddi bir engel olarak gördüğü çok net bir şekilde anlaşılıyor. ABD’de federal yapay zeka yasalarının bir türlü çıkmaması da şirketleri gönüllü kısıtlama ile rekabette hayatta kalma arasında zorlu bir seçime itiyor.

RAIDS AI CEO’su Nik Kairinos, Anthropic’in temel güvenlik sözünden vazgeçmesinin bağımsız denetimlerin ve bağlayıcı resmi düzenlemelerin ne kadar şart olduğunu açıkça gösterdiğini savundu. Kairinos ayrıca, Anthropic’in henüz birkaç hafta önce yapay zeka güvenlik yasalarını destekleyen siyasilere 20 milyon dolar bağışta bulunmasının büyük bir ironi olduğunu ve mevcut durumun karmaşıklığını yansıttığını sözlerine ekledi.

Anthropic, anlamlı bir güvenlik araştırması yapabilmek için teknolojinin gerisinde kalmak yerine bu teknolojinin en ön saflarında yer alması gerektiğini savunuyor. Peki, yapay zekanın böylesine hızlı ilerlediği bir dönemde şirketlerin kendi güvenlik kurallarını esnetmesi hakkında siz ne düşünüyorsunuz? Teknolojik gelişim hızına yetişmek için bu tarz riskleri göze almak şart mı, yoksa daha sıkı kuralları olan bir yapay zeka modelini mi kullanmayı tercih ederdiniz?


Kaynak:
Shiftdelete 


Sosyal Medyada Paylaşın:

BİRDE BUNLARA BAKIN

Düşüncelerinizi bizimle paylaşırmısınız ?

Sponsorlu Bağlantılar
  • ÇOK OKUNAN
  • YENİ
  • YORUM