全球新動態(tài):ChatGPT為何有時胡言亂語 精神科醫(yī)生分析它的“焦慮”從何而來

2023-05-27 14:06:26


(資料圖片)

ChatGPT在“智慧涌現(xiàn)”的同時,會不會出現(xiàn)“情緒涌現(xiàn)”?

近期,一些技術人員在測試ChatGPT應用時發(fā)現(xiàn),ChatGPT在與人類長時間聊天后會“失控”,開始胡言亂語,甚至暴露出一些“邪惡”的想法。精神科醫(yī)生認為,這有可能是因為AI患上了“焦慮癥”。

根據(jù)上個月德國發(fā)表的一項研究,GPT3.5在人類常用的焦慮癥測試問卷中獲得了較高的分數(shù),在被誘導進入焦慮情景后,還會產(chǎn)生特定的決策判斷和偏見行為。

對此,上海市精神衛(wèi)生中心心理咨詢與治療中心主任仇劍崟主任醫(yī)師在天橋腦科學研究院(TCCI)舉辦的首期“AI問腦”對話中表示:“我很期待AI經(jīng)過專業(yè)訓練之后能夠患上焦慮癥,從而幫助醫(yī)生更好地了解焦慮癥的表現(xiàn),分析背后的相關因素,為找出更多更好的預防、治愈方法打開新思路?!?/p>

近年來,醫(yī)生開始積極嘗試將AI技術應用于包括焦慮癥在內(nèi)的精神障礙臨床診療。不過,AI是真的由自主意識引發(fā)了焦慮還是僅僅是表現(xiàn)出了類似焦慮的癥狀,仍然值得探討。

中華預防醫(yī)學會精神衛(wèi)生分會主任委員、上海市精神衛(wèi)生中心謝斌教授對第一財經(jīng)記者表示:“AI恐怕暫時還只有焦慮的軀殼,只是從語言或者行為上表現(xiàn)出類似焦慮的情緒,而不具有自主意識的內(nèi)核?!?/p>

北京郵電大學人工智能學院副教授陳光在“AI問腦”對話上表示,ChatGPT這類模型是基于大量的訓練數(shù)據(jù)進行學習和生成文本,用類似填空、接龍的方式訓練得到的模型,目前并不具備真正的主觀意識、情緒或意愿;然而基于人工反饋強化學習(RLHF),AI的確可以根據(jù)人類對其輸出結(jié)果的判定和引導,不斷調(diào)整,逐漸接近人類的傾向,但他認為,目前看來,AI的這種模仿沒有超出文本學習和生成的范圍,并不會形成穩(wěn)定、一致的“性格”。

陳光表示,ChatGPT熱潮促進AI進入各行各業(yè)廣泛應用,如果結(jié)合精神衛(wèi)生領域的專業(yè)數(shù)據(jù)對大模型進行“微調(diào)”,一方面將幫助AI更好地模擬人類的情緒反應,模擬出一批供醫(yī)生研究的“精神病人”,另一方面也有望更準確高效地識別出人類的情緒障礙,起到輔助診療作用。相關數(shù)據(jù)的規(guī)模是AI技術能否深入精神衛(wèi)生領域的關鍵。

此外,隨著計算精神病學的興起,未來,這類交叉學科也有助于推動將數(shù)據(jù)分析、機器學習和人工智能等工具應用于精神障礙的分型診斷、風險預警、預后預測,協(xié)助臨床診療和防治策略制定,幫助人類打開精神疾病的“黑盒”。

(文章來源:第一財經(jīng))

標簽:

關閉
新聞速遞