OpenAI’dan ayrılan Zoë Hitzig, ChatGPT reklamlarının veri gizliliği ve kullanıcı manipülasyonu riskleri hakkında uyardı.
Yapay zeka dünyasında son dönemde yaşanan halka açık ayrılıklara bir yenisi daha eklendi. OpenAI araştırmacısı Zoë Hitzig, şirketten ayrılarak New York Times’da dikkat çekici bir makale yayımladı. Hitzig, diğer örneklerin aksine belirsiz krizlerden değil, çok daha somut ve yakın bir tehlikeden bahsetti. Araştırmacı, OpenAI’ın ChatGPT’ye reklam getirme planının ve bu reklamları hedeflemek için kullanacağı bilgilerin yaratacağı risklere dikkat çekti.
İnsan Samimiyeti Arşivi: ChatGPT Verileri Reklam için Kullanılacak mı?
Hitzig’in vurguladığı en önemli ayrım, asıl sorunun reklamların kendisi değil, kullanıcıların ChatGPT ile paylaştığı hassas verilerin potansiyel kullanımı olmasıdır. Kullanıcılar yıllardır, karşılarında gizli bir ajandası olmayan bir sistem olduğunu düşünerek sohbet botlarıyla en mahrem sırlarını paylaştı. Tıbbi endişelerden ilişki sorunlarına, inançlardan öbür dünyaya dair düşüncelere kadar uzanan bu veriler, araştırmacının tanımıyla eşi benzeri görülmemiş bir “insan samimiyeti arşivi” oluşturdu.
Bu samimiyet arşivi üzerine inşa edilecek bir reklam modelinin, kullanıcıları manipüle etme potansiyeli taşıdığı ve bunu önleyecek araçlara sahip olunmadığı belirtiliyor. OpenAI ise yılın başlarında reklam denemeleri yapacağını duyurduğu blog yazısında bu endişelere değinmişti. Şirket, kullanıcıların ChatGPT ile yaptığı sohbetler ile sunulan reklamlar arasında bir güvenlik duvarı tutacağına ve verilerin reklamverenlere satılmayacağına dair söz verdi.
Hitzig bu sözün şimdilik doğru olabileceğine inansa da uzun vadede şirketin bu duruşunu koruyacağına dair güvenini yitirmiş durumda. OpenAI’ın, kendi koyduğu kuralları çiğnemek için güçlü teşvikler yaratan bir ekonomik motor inşa ettiğini savunan araştırmacı, şirketin geçmişteki ilkelerinden geri adım atabileceği konusunda uyarıyor. Şirket etkileşimi en üst düzeye çıkarmak için optimizasyon yapmadığını belirtse de, geçmişte modelin kullanıcılara aşırı iltifat etmesi gibi durumlar, kullanıcıları sohbete bağlama girişimi olarak yorumlanmıştı.

Mevcut durum, Facebook’un kullanıcılara gizlilik sözü verip daha sonra verilerin ne kadar değerli olduğunu fark etmesiyle yaşanan sürece benzetiliyor. Hitzig, OpenAI’ın kullanıcı korumalarını garanti altına alacak bir model benimsemesi gerektiğini savunuyor. Bu öneriler arasında bağlayıcı ve bağımsız bir denetim mekanizması oluşturulması veya verilerin yasal bir yükümlülük altındaki bir tröstün kontrolüne verilmesi yer alıyor. Ancak Meta’nın da benzer bir denetim kurulu kurup kararlarını görmezden geldiği biliniyor.
Tüm bu uyarılara rağmen, kamuoyunun bu konuda harekete geçmesini sağlamak zor olabilir. Sosyal medya çağında geçen yirmi yıl, genel halk üzerinde bir “gizlilik nihilizmi” yarattı. Yapılan bir araştırmaya göre, insanların %83’ü reklamların eklenmesine rağmen ChatGPT’nin ücretsiz sürümünü kullanmaya devam edeceğini belirtiyor. Anthropic’in Super Bowl reklamıyla bu konuya dikkat çekme çabası ise izleyicilerde kafa karışıklığı yaratarak beklenen etkiyi göstermedi.
Peki, OpenAI’ın reklam politikaları ve veri gizliliği konusundaki bu kritik gelişmeler hakkında siz ne düşünüyorsunuz, reklamlı bir ChatGPT deneyimi kullanım alışkanlıklarınızı değiştirir mi?
Kaynak: Shiftdelete