Bilgi
Hayatteknoloji.net - Türkiye'nin teknoloji portalı

  • DOLAR
    %0,15
  • EURO
    %-0,27
  • ALTIN
    %-1,68
  • BIST
    %-1,56
Reddit yapay zekası ağrı kesici yerine eroin önerdi

Reddit yapay zekası ağrı kesici yerine eroin önerdi

Bir kullanıcı, Reddit Answers’ın ağrı kesici olarak eroin önerdiğini fark etti. Reddit, yansılar sonrası özelliğin görünürlüğünü azalttı.

Yapay zeka sohbet botlarının halüsinasyon üretme geçmişi giderek uzuyor. Bu kere sıradaki olay, Reddit’in yapay zekâ dayanaklı Answers özelliğiyle yaşandı. Bir kullanıcı, ağrı kesici arayışında olan birine eroin önerildiğini fark etti. Olayın akabinde Reddit, yansılar üzerine süratlice harekete geçti.

Answers Sıhhat Tavsiyelerinde Sınıfta Kaldı

Olay, bir sağlık çalışanı tarafından moderatörlere özel bir alt dizinde paylaşıldı. Kronik ağrı hakkında açılan bir başlıkta, Reddit Answers’ın İronik formda, eroin bu durumlarda hayatımı kurtardı tabiri geçen bir gönderiyi önerdiği fark edildi.

Benzer bir olayda, sohbet botu diğer bir kullanıcıya kratom isimli, birçok eyalette yasadışı olan bir bitki özütünü önermişti. ABD Besin ve İlaç Dairesi (FDA), kratomun karaciğer hasarı, nöbet ve bağımlılık riski taşıdığı konusunda uzun müddettir ihtarlarda bulunuyor.

Reddit Answers, Kullanıcı İçeriğinden Öğreniyor

Reddit Answers, Gemini ve ChatGPT üzere büyük lisan modellerine misal biçimde çalışıyor lakin temel farkı, cevaplarını Reddit kullanıcılarının paylaştığı içeriklerden oluşturması. Başlangıçta farklı bir sekmede sunulan bu özellik, artık birtakım sohbet akışlarına entegre edilerek test ediliyor.

Ancak bu sistem, topluluk kaynaklı içeriklerden beslendiği için doğrulanmamış yahut ziyanlı tavsiyeleri ön plana çıkarabiliyor. Sıhhat üzere hassas hususlarda bu durum önemli riskler doğurabiliyor.

Görünürlük Azaltıldı

Sorunu tespit eden kullanıcı, Reddit Answers’ın sıhhat alt başlıklarında yanlış ve tehlikeli tıbbi tavsiyeler verdiğini belirtti. Ayrıyeten moderatörlerin bu özelliği devre dışı bırakma seçeneği de bulunmuyordu. Şikâyet sonrası Reddit, sistemde düzenlemeye giderek hassas mevzularda Answers özelliğinin görünürlüğünü azalttı.

Yapay Zekalarda Tehlikeli Tavsiye Zinciri

Bu olay, yapay zekâların kusurlu yahut tehlikeli tavsiyeler verme eğiliminin yeni bir örneği oldu. Daha evvel Google’ın AI Overviews özelliği pizzalarda peynirin kaymaması için toksik olmayan yapıştırıcı kullanın teklifinde bulunmuş, ChatGPT de kimi sıhhat tavsiyelerinde sağlam olmayan sonuçlar üretmişti.

Reddit Answers olayı, yapay zekâların bilhassa sağlık alanında sağlam moderasyon olmadan kullanılmasının risklerini bir sefer daha ortaya koydu. Reddit, sistemi düzeltmeye çalışsa da, bu olay AI dayanaklı arama ve sohbet araçlarının sınırlarını açıkça gösteriyor.


Kaynak:
Shiftdelete 


Sosyal Medyada Paylaşın:

BİRDE BUNLARA BAKIN

Düşüncelerinizi bizimle paylaşırmısınız ?

Sponsorlu Bağlantılar
  • ÇOK OKUNAN
  • YENİ
  • YORUM