人工智慧人看不出來?

隨著 COMPUTEX 開展,今年的主題圍繞著人工智慧,從去年底開始的 ChatGPT 熱潮延續迄今而且應該會繼續好多年。直到「人工智慧控制人類」?
一篇有意思的報導,人工智慧聊天的錯誤答案比例高達 52%,有 39%的人難以辨別。對於人工智慧聊天的使用心得,問一個問題,可以有較高可信度的答案,畢竟以往有問題就找谷哥大神,一口氣回應成千上萬的答案,在茫茫的知識領域中,已經夠迷惘的了,一下子得到為數眾多的答案,若是排列在第一順位或是前幾順位的答案明顯不對,接下來的住條瀏覽,真的會令人懷疑人生,懷疑自己自找麻煩,搞出一堆「可能性」答案,然後再由自己「人工判斷」,累死自己。人工智慧聊天方式的出現,將眾多可能性答案至少彙整成為一個口語化的回答,更人性化,更讓我們「信服」,當然也更方便,眾多優點,當然我們願意使用,也因為這樣的原因,讓我過去這幾個月以來,使用 CoPilot 取代了以往動輒 Google 大神,大神已經遠去…
人工智慧幫助我們在這一個階段,省去了一些困擾,上網搜尋資料時,看似更有效率,不再茫茫知識海中載浮載沉,人工智慧似乎也如同人一般,也會出錯或是認知錯誤,如同我們聊天一般,有時也會天馬行空,胡說八道?人工智慧的發展,愈來愈像人類,也會出錯,這樣算是一個成功的發展?

參考報導:
ChatGPT提供錯誤程式答案的比例高達52%,只是39%的人類看不出來【T客邦】