聊天機(jī)器人會(huì)帶來(lái)哪些改變
文章來(lái)源:健康報(bào)發(fā)布日期:2023-02-08瀏覽次數(shù):49 聊天機(jī)器人ChatGPT火了。作為一種新形式的人工智能工具,它不僅能夠較為流暢地與人類對(duì)話,甚至還能吟詩(shī)作對(duì)、撰寫論文和報(bào)告、編寫代碼等?!斑@個(gè)工具太省事了?!薄八鼤?huì)不會(huì)取代我的工作?”……一時(shí)間,有的人對(duì)此技術(shù)感到既興奮又驚慌。而就醫(yī)療健康行業(yè)來(lái)說(shuō),這樣的人工智能技術(shù)會(huì)帶來(lái)哪些益處,又有哪些風(fēng)險(xiǎn)?撰寫講稿,完成文字工作的“研究助手”
ChatGPT是美國(guó)一家名為OpenAI的人工智能公司在2022年11月發(fā)布的大型語(yǔ)言模型(LLM)。它可以從數(shù)據(jù)中自主學(xué)習(xí),經(jīng)過(guò)大量數(shù)據(jù)集訓(xùn)練之后,可以產(chǎn)生復(fù)雜且看似智能的“寫作能力”。 “這有可能影響對(duì)學(xué)生語(yǔ)言和邏輯思維能力的培養(yǎng)?!边@是來(lái)自國(guó)際教育界的擔(dān)憂。為此,有大學(xué)將“使用AI”列入作弊手段。而美國(guó)斯坦福大學(xué)更是開(kāi)發(fā)了算法技術(shù)對(duì)抗,研究人員推出了DetectGPT技術(shù),可以檢測(cè)出通過(guò)人工智能生成的文本。 2月3日,發(fā)表在期刊《自然》上的一篇題為《ChatGPT為研究帶來(lái)的五個(gè)機(jī)會(huì)》的文章指出:人們目前已使用ChatGPT和其他大型語(yǔ)言模型來(lái)撰寫論文和演講、總結(jié)文獻(xiàn)、編寫計(jì)算機(jī)代碼、統(tǒng)計(jì)分析等,“它可能會(huì)加速創(chuàng)新過(guò)程,縮短出版時(shí)間,并通過(guò)幫助人們流利地寫作,使科學(xué)更加公平,并增加科學(xué)觀點(diǎn)的多樣性。然而,它也會(huì)帶來(lái)?yè)?dān)憂,如可能降低研究的質(zhì)量和透明度,可能會(huì)歪曲科學(xué)事實(shí)并傳播錯(cuò)誤信息等。” 對(duì)此,多數(shù)研究者認(rèn)為,ChatGPT是現(xiàn)有教學(xué)科研工作的一種補(bǔ)充,但是由于其潛在的不良影響,需要在實(shí)際使用中格外審慎?!皩?duì)科學(xué)研究領(lǐng)域來(lái)說(shuō),現(xiàn)在不是拒絕使用的問(wèn)題,而是如何避免錯(cuò)誤使用的問(wèn)題。”第二軍醫(yī)大學(xué)海軍醫(yī)學(xué)系退休教授、上海交通大學(xué)兼職教授孫學(xué)軍表示,“由于這種系統(tǒng)不夠成熟,目前使用時(shí)要堅(jiān)持對(duì)信息進(jìn)行人工確認(rèn),將來(lái)也可以利用多種技術(shù)來(lái)解決。” 孫學(xué)軍分析了使用這一系統(tǒng)的3點(diǎn)益處:首先,有利于科學(xué)問(wèn)題的提出。通過(guò)先和人工智能進(jìn)行對(duì)話和討論,至少能快速?gòu)奈墨I(xiàn)中獲得相關(guān)信息,以增加科研思路的科學(xué)性。其次,論文發(fā)表可能會(huì)逐漸失去意義。學(xué)術(shù)論文是科學(xué)家交流思想的載體,但如果能利用人工智能技術(shù)和網(wǎng)絡(luò)存儲(chǔ)潛力,學(xué)術(shù)論文可能會(huì)被更有效且具有一定個(gè)性化的學(xué)術(shù)資料庫(kù)取代,甚至可能逐漸發(fā)展出更多新的思想交流模式。大量偽學(xué)術(shù)研究逐漸失去市場(chǎng)。如果人工智能具有客觀評(píng)價(jià)學(xué)術(shù)的能力,那許多垃圾論文將會(huì)無(wú)法立足。這對(duì)于凈化學(xué)術(shù)空氣,減少無(wú)效學(xué)術(shù)信息,是非常有價(jià)值的。診斷疾病,改善就醫(yī)體驗(yàn)的“加速器”
醫(yī)療和人工智能的結(jié)合是很有前途的話題,ChatGPT在醫(yī)學(xué)領(lǐng)域的用途還在不斷探索和研究中。 不久前,德雷克塞爾大學(xué)研究團(tuán)隊(duì)將GPT- 3與神經(jīng)學(xué)診斷聯(lián)系起來(lái)。他們從既往研究中得知,阿爾茨海默病患者早期說(shuō)話方式會(huì)發(fā)生微妙變化,如停頓、發(fā)聲質(zhì)量等。如果能通過(guò)人工智能技術(shù)捕捉到這些變化,就可以幫助快捷地篩查出早期患者,及早進(jìn)行干預(yù)和治療。基于這一思路,研究人員使用阿爾茨海默病患者和正常人的語(yǔ)音記錄數(shù)據(jù)集,重新訓(xùn)練了GPT-3。 經(jīng)過(guò)努力,研究人員實(shí)現(xiàn)了這樣一個(gè)場(chǎng)景:只需要提供一段音頻,這個(gè)算法能從人群中地檢測(cè)出阿爾茨海默病患者語(yǔ)言上的細(xì)微差別,并給出受檢測(cè)者的認(rèn)知測(cè)試得分,而且整個(gè)過(guò)程不需要知道其他個(gè)人信息。 那么,ChatGPT在醫(yī)學(xué)領(lǐng)域能發(fā)揮哪些作用?智慧醫(yī)療行業(yè)的人士張迅杰分析了幾大方向:第一,提供個(gè)性化健康支持。它可以通過(guò)從大量醫(yī)學(xué)數(shù)據(jù)中學(xué)習(xí),并生成詳盡、準(zhǔn)確的醫(yī)學(xué)報(bào)告,幫助人們更好地了解自己的健康狀況和風(fēng)險(xiǎn)。第二,改善就醫(yī)體驗(yàn)。比如,快速回答患者問(wèn)題、減少等待時(shí)間等。第三,簡(jiǎn)化臨床工作流程,如安排預(yù)約和管理醫(yī)療記錄,為醫(yī)務(wù)人員節(jié)省時(shí)間。第四,分析健康數(shù)據(jù),可以為醫(yī)務(wù)人員和研究人員提供更好的決策支持,并為醫(yī)療機(jī)構(gòu)提供有關(guān)患者治療結(jié)果等方面的見(jiàn)解,還可以輔助遠(yuǎn)程醫(yī)療。 雖然前景廣闊,但ChatGPT技術(shù)要想在醫(yī)療保健領(lǐng)域廣泛采用還面臨著一些挑戰(zhàn)?!捌湟?,用于訓(xùn)練算法的信息僅持續(xù)到2021年,這限制了它對(duì)2021年后任何事物的實(shí)用性。第二,用戶還需要幫助以確保算法提供的答案準(zhǔn)確無(wú)誤。”張迅杰指出。有不確定性,擁抱未來(lái)要明確邊界
人工智能作為具代表性的顛覆性技術(shù),在給人類社會(huì)帶來(lái)潛在巨大益處的同時(shí),因其不確定性可能帶來(lái)許多挑戰(zhàn)。數(shù)據(jù)安全、算法偏見(jiàn)等問(wèn)題,是醫(yī)療和人工智能結(jié)合的熱點(diǎn)議題。 “ChatGPT是一個(gè)機(jī)器學(xué)習(xí)模型,仍屬于弱人工智能,它不具備個(gè)人意識(shí),其應(yīng)用價(jià)值巨大,但同時(shí)也引發(fā)一系列倫理、法律和社會(huì)問(wèn)題,必須引起注意,盡快著手研究和治理?!睆氖律鼈惱韺W(xué)研究的張迪副教授從社會(huì)分工、教育行業(yè)、知識(shí)產(chǎn)權(quán)和公平公正4個(gè)方面進(jìn)行分析。 第一,當(dāng)下和未來(lái),哪些人類活動(dòng)能夠被此類技術(shù)取代?張迪舉例說(shuō):“信息的搜集與整理,文本編輯與翻譯等,可以幫助人類節(jié)省更多時(shí)間,提升生產(chǎn)效率。但這并不意味著人類就沒(méi)有必要去做這些事情。人類只有在親自行動(dòng)的過(guò)程中,才能真正體驗(yàn)到生命的意義和生活的幸福感?!?/span>
第二,該技術(shù)促使人類反思當(dāng)下的教育,如教育的目的、內(nèi)容和形式?!叭斯ぶ悄芗夹g(shù)如何更好地服務(wù)于教育,能否有助于促進(jìn)教育的公平性?”張迪指出,“要為人工智能的使用劃清邊界。如學(xué)生作業(yè)的哪些部分允許使用ChatGPT,哪些不允許,如何識(shí)別和防止使用AI作弊等?!?/span>
第三,關(guān)于知識(shí)產(chǎn)權(quán),目前一些研究者在研究過(guò)程中也使用此類語(yǔ)言模型,甚至將其列為作者。這樣署名合適嗎?通過(guò)語(yǔ)言模型開(kāi)展研究能否體現(xiàn)對(duì)前人研究功績(jī)的尊重?張迪認(rèn)為,關(guān)于署名,研究者和期刊應(yīng)遵循當(dāng)前的署名規(guī)則,如果語(yǔ)言模型僅僅完成了以往翻譯者或文字編輯的工作,顯然不應(yīng)將其列為作者。但如果其提出了研究創(chuàng)意或研究方案,則需要反思現(xiàn)有的署名規(guī)則是否還適用。
第四,公平公正是重點(diǎn)議題?!笆紫纫⒁獾氖?,歧視和污名化問(wèn)題?!睆埖辖忉?,由于語(yǔ)言模型涉及海量的訓(xùn)練數(shù)據(jù)集,其中不乏一些帶有歧視和偏見(jiàn)類的數(shù)據(jù),導(dǎo)致其輸出的結(jié)果存在或加深歧視。這里還有可能涉及數(shù)據(jù)安全問(wèn)題,不排除有人可能會(huì)惡意制造大量歧視信息,訓(xùn)練語(yǔ)言模型或誘使其捕捉這些數(shù)據(jù),以有意加深歧視?!按送?,ChatGPT背后有大量資本投入,其未來(lái)的使用必然涉及為資本服務(wù),這會(huì)引發(fā)社會(huì)公正問(wèn)題?!睆埖现毖?,目前中國(guó)并不在ChatGPT可使用的國(guó)家之中,即使未來(lái)在中國(guó)上線,也并非所有人都可以獲得。“語(yǔ)言模型技術(shù)的可及、可負(fù)擔(dān)的問(wèn)題也很值得討論。比如,國(guó)家是否應(yīng)當(dāng)投入資源研發(fā)此類技術(shù)以促進(jìn)公平可及,企業(yè)是否應(yīng)當(dāng)為貧困人群提供可負(fù)擔(dān)的技術(shù)服務(wù)。”
數(shù)據(jù)所屬權(quán)及個(gè)人隱私也需要關(guān)注。“目前,從互聯(lián)網(wǎng)搜集個(gè)人信息和數(shù)據(jù)可使用爬蟲程序或人工檢索,但隨著語(yǔ)言模型的出現(xiàn)和迭代,很有可能會(huì)使已經(jīng)去標(biāo)識(shí)的信息或數(shù)據(jù)再次變成可識(shí)別信息。所以,如果沒(méi)有相應(yīng)的隱私保護(hù)規(guī)則內(nèi)嵌于語(yǔ)言模型之中,必將導(dǎo)致大量個(gè)人信息和數(shù)據(jù)的泄露,破壞個(gè)人隱私?!睆埖险f(shuō)。