Chatbotlar neden yalancı olmaktan vazgeçemiyor?

Suzan

New member
Son zamanlarda, Google, çeşitli gazetelerle görüşmeler yaptı (New York Times ve Washington Post dahil), kısa makaleler yazmak için Genesis adlı sohbet robotlarından birini deneme olasılığı. Bunun yerine daha iyi bilinen ChatGPT zaman zaman kullanılmıştır. psikiyatrik tavsiye almak, hastalıkları teşhis etmek veya yasal belgeler yazmak. Güvenilirlik ve doğruluğun gerekli olduğu tüm alanlar.

Tek bir sorun var: ChatGPT ve diğer LLM’ler (Büyük Dil Modeli, her türlü metni üretebilen yapay zeka sistemleri) sözde halüsinasyonlardan muzdariptir. Uzmanların, bu AI’ların gerçekler yerine metinleri sunma eğilimini belirttiği terimdir. yanlış veya tamamen yanlış. Basitçe söylemek gerekirse, sohbet robotlarının bir şeyler uydurma eğilimi vardır.


Yapay zeka

Irkçılık ve ayrımcılık arasındaki AI: iki yıl sonra, eskisinden daha kötü durumdayız



kaydeden Emanuele Capone

27 Mart 2023



kullandığımız sürece ChatGPT ve diğer benzer modeller, dikkatle denetlenen bir asistan gibi (uzun metinleri özetlemek, basit iş e-postaları yazmak veya icat ettiğimiz bir sloganın farklı versiyonlarını oluşturmak için), tüm bunlar belirli bir sorun teşkil etmez. Ancak, birçok kişinin inandığı gibi, gelecekte bu araçlar bir önemli rol doğruluğun çok önemli olduğu ve hataların ciddi sonuçlara yol açtığı endüstrilerde bile halüsinasyon sorununu çözmek çok önemlidir.

Bu girişimde başarılı olmak mümkün mü? OpenAI’nin kurucusu Sam Altman (ChatGPT’yi yapan şirket) tahmin edilebileceği gibi iyimser: “Bence halüsinasyon problemini büyük ölçüde iyileştirebileceğiz. Bir buçuk, belki iki yıl alabilir ama bu sınırları aşabileceğiz” dedi.

Ancak herkes onun bakış açısını paylaşmıyor. LLM’ler yalnızca büyük bir istatistiksel kesme ve birleştirme yoluyla yeniden çalışır. veritabanlarında çok miktarda metinhangi kelimenin kendisinden önceki kelimelerle tutarlı olma olasılığının en yüksek olduğunu tahmin ederek (örneğin, “şarkı” kelimesi yerine “yürümek” kelimesiyle sonuçlandırmanın istatistiksel olarak daha doğru olduğunu tahmin ederek, “ben” ifadesi “) yapmak için köpeği taşıyın.

Ancak tüm bunlarda, gerçekte neyi ifade ettiklerine dair en ufak bir anlayış yoktur, yalnızca makul metinler üretme yeteneği vardır. Halüsinasyon sorununun kökeninde bu eksiklik yatmaktadır: “Çözülebilir bir sorun değildir – bilgisayar dilbilimi profesörü Emily Bender açıkladı, Associated Press’e – Gerçekte, bu sistemler her zaman bir şeyler uydurur. Oluşturdukları içeriklerin tarafımızca doğru olarak yorumlanabilmesi tesadüfen gerçekleşmektedir. Çoğu durumda doğru olacak şekilde geliştirilseler bile, yine de yanlış olacaklar.” Sadece bu da değil: bu araçlar ilerledikçe bizim için anlamak giderek zorlaşıyor halüsinasyonlardan muzdarip olduklarında.

“Bir chatbot’u zamanın %90’ında doğru yapmak oldukça kolaydır – Foreign Policy’ye konuşan Yonadav Shavit açıkladıHarvard bilgisayar bilimcisi – Ancak bunu %99 oranında doğru yapmak, çözülmemiş büyük bir araştırma sorunudur.” Ancak, bu araçları tıp, hukuk veya diğer alanlarda kullanırken %1’lik bir hata bile dramatik sonuçlar doğurabilir.

E n’olmuş? Belki, New York Üniversitesi’nde profesör olan Gary Marcus’un yazdığı gibi, LLM’leri ve diğer tüm derin öğrenme tabanlı algoritmaları yalnızca “riskin düşük olduğu ve sonuçların mükemmelliğinin isteğe bağlı olduğu durumlarda” kullanmalıyız. Ve bırakın geri kalan her şeyle insan ilgilensin.