Bilgi
Hayatteknoloji.net - Türkiye'nin teknoloji portalı

  • DOLAR
    %-0,06
  • EURO
    %-0,14
  • ALTIN
    %-0,07
  • BIST
    %0,44
Kullanıcılar ChatGPT ile intiharı konuşuyor!

Kullanıcılar ChatGPT ile intiharı konuşuyor!

OpenAI’ın paylaştığı datalara nazaran, her hafta 1 milyondan fazla ChatGPT kullanıcısının yapay zeka ile intihar hakkında konuşuyor.

OpenAI, yapay zeka sohbet robotu ChatGPT’nin kullanımıyla ilgili tasa verici datalar paylaştı. Şirketin iddialarına nazaran, haftalık 800 milyondan fazla faal kullanıcısı bulunan ChatGPT ile her hafta 1 milyondan fazla kişi intihar fikirleri yahut planları hakkında konuşuyor. Bu sayı, toplam haftalık kullanıcı tabanının yaklaşık %0.15’ine denk geliyor. Bu hassas sohbetlerin oranı düşük görünse de, ChatGPT’nin devasa kullanıcı sayısı nedeniyle bu sayı epeyce değerli bir düzeye ulaşıyor.

ChatGPT ve ruh sıhhati krizi: OpenAI raporu kaygı verici

ChatGPT, başlangıçta teknolojik bir cümbüş aracı olarak görülüyordu. Lakin artık yüz milyonlarca insan, hayatın zorluklarıyla başa çıkmak için yapay zeka sohbet aracına güveniyor. Tarihte birinci kere bu kadar çok sayıda insan, hislerini konuşan bir makineye açmaya başladı. OpenAI, benzeri bir oranda kullanıcının (%0.15) ChatGPT’ye karşı “yüksek seviyede duygusal bağlılık” gösterdiğini kestirim ediyor. Ayrıyeten, yüz binlerce insanın (yaklaşık %0.07) sohbet botuyla yaptıkları haftalık konuşmalarda psikoz yahut mani belirtileri gösterdiği belirtiliyor.

OpenAI bu dataları, yapay zeka modellerinin ruh sıhhati meseleleri yaşayan kullanıcılara verdiği cevapları düzgünleştirme eforları kapsamında duyurdu. Şirket, modele ezayı daha âlâ tanımasını, konuşmaları yatıştırmasını ve gerektiğinde insanları profesyonel bakıma yönlendirmesini öğrettiğini belirtti. Bu çalışma için 170’den fazla ruh sıhhati uzmanıyla istişare edildiği tabir edildi. Klinik uzmanlar, ChatGPT’nin en son sürümünün evvelki sürümlere nazaran “daha uygun ve tutarlı” cevaplar verdiğini gözlemledi.

Savunmasız kullanıcılardan gelen girdilerin hakikat yönetilmesi, OpenAI için kritik bir sorun haline geldi. Araştırmacılar, sohbet robotlarının kullanıcıların tehlikeli inançlarını pekiştirerek (aşırı pohpohlama ve dalkavukça davranışlarla) onları sanrılı kanılara yönlendirebileceğini bulmuştu. Şirket şu anda, intiharından evvelki haftalarda niyetlerini ChatGPT’ye açan 16 yaşındaki bir çocuğun ailesi tarafından dava ediliyor. Bu davanın akabinde 45 eyalet başsavcısı, OpenAI’ye eserlerini kullanan gençleri muhafazası gerektiği tarafında bir ikazda bulundu.

Bu telaşları gidermek için şirket, yakın vakitte bir “sağlıklı ömür konseyi” kurduğunu duyurdu. Lakin eleştirmenler, kurulda bir intihar tedbire uzmanının bulunmadığına dikkat çekti. OpenAI ayrıyeten ChatGPT kullanan çocuklar için ebeveyn kontrollerini kullanıma sundu. Şirket, çocukları otomatik olarak tespit etmek ve yaşa bağlı daha katı güvenlik tedbirleri uygulamak için bir yaş iddia sistemi geliştirdiğini söylüyor.

OpenAI, yeni GPT-5 modelinin ruh sıhhatiyle ilgili 1.000’den fazla kuvvetli konuşma değerlendirmesinde, istenen davranışlara %92 oranında ahenk sağladığını argüman etti. Bu oran, 15 Ağustos’ta piyasaya sürülen evvelki GPT-5 modelinde yalnızca %27 idi. Şirket ayrıyeten, temel güvenlik testlerine artık duygusal bağımlılık ve intihar dışı ruhsal sıhhat acil durumları için kriterler eklediğini belirtti. Bu telaşlara karşın CEO Sam Altman, Aralık ayından itibaren doğrulanmış yetişkin kullanıcıların ChatGPT ile erotik sohbetler yapmasına müsaade verileceğini duyurdu. Altman, ruh sıhhati konusunda dikkatli olmak için robotu “oldukça kısıtlayıcı” yaptıklarını, lakin bunun öbür kullanıcılar için “daha az kullanışlı” olduğunu kabul etti.

Yapay zekanın ruh sıhhati üzerindeki bu derin tesiri, teknoloji dünyasında tartışılmaya devam edecek üzere görünüyor. Pekala siz ChatGPT üzere yapay zeka araçlarının bu tıp hassas bahisleri yönetebileceğini düşünüyor musunuz?


Kaynak:
Shiftdelete 


Sosyal Medyada Paylaşın:

BİRDE BUNLARA BAKIN

Düşüncelerinizi bizimle paylaşırmısınız ?

Sponsorlu Bağlantılar
  • ÇOK OKUNAN
  • YENİ
  • YORUM