此類大型語言模型工具包括ChatGPT等許多其他模仿理解、處理和產(chǎn)生人類交流的平臺(tái)。
當(dāng)?shù)貢r(shí)間16日,世界衛(wèi)生組織(WHO)發(fā)聲明呼吁謹(jǐn)慎使用人工智能(AI)生成的大型語言模型工具(LLM),以保護(hù)和促進(jìn)人類的福祉、安全和自主性,并維護(hù)公共健康。
此類大型語言模型工具包括ChatGPT等許多其他模仿理解、處理和產(chǎn)生人類交流的平臺(tái),它們?cè)诠娭袀鞑パ杆伲⒃絹碓蕉嗟赜糜跐M足人們的健康需求,在健康方面的應(yīng)用充滿了潛力。
可能存在風(fēng)險(xiǎn)
WHO表示,在利用大型語言模型工具來改善健康信息獲取、作為決策支持工具,甚至增強(qiáng)在資源匱乏環(huán)境中的診斷能力以保護(hù)人們的健康和減少不平等時(shí),必須仔細(xì)審查其可能存在的風(fēng)險(xiǎn)。雖然WHO支持適當(dāng)使用技術(shù),包括AI大型語言模型工具,來支持醫(yī)護(hù)人員、患者、研究人員和科學(xué)家,但對(duì)這種新技術(shù)持謹(jǐn)慎態(tài)度。
WHO表示,其倡導(dǎo)幾大核心價(jià)值,包括需要廣泛遵守透明度、包容性、公眾參與、專家監(jiān)督和嚴(yán)格評(píng)估等,而操之過急地采用未經(jīng)測(cè)試的系統(tǒng)可能會(huì)導(dǎo)致醫(yī)護(hù)人員的錯(cuò)誤操作,對(duì)患者造成傷害,削弱對(duì)人工智能的信任,從而破壞或延遲此類技術(shù)在全球范圍內(nèi)的潛在長(zhǎng)期效益與應(yīng)用。
為了以安全、有效和合乎道德的方式來使用的技術(shù),并進(jìn)行嚴(yán)格監(jiān)督,WHO提出了以下領(lǐng)域的疑慮,包括:用于訓(xùn)練AI的數(shù)據(jù)可能存在偏差,產(chǎn)生誤導(dǎo)性或不準(zhǔn)確的信息,可能對(duì)健康、公平和包容性構(gòu)成風(fēng)險(xiǎn);大型語言模型生成的回答對(duì)終端用戶或許顯得權(quán)威而可信,但這些回答可能是完全錯(cuò)誤的,或者包含嚴(yán)重錯(cuò)誤的信息,尤其是涉及健康的回答;大型語言模型可能在未經(jīng)事先同意使用的數(shù)據(jù)上進(jìn)行培訓(xùn),并且可能不會(huì)保護(hù)用戶提供的敏感數(shù)據(jù)(包括健康數(shù)據(jù));大型語言模型可能被濫用,以文本、音頻或視頻內(nèi)容的形式產(chǎn)生和傳播看似極具說服力的虛假信息,公眾會(huì)很難將其與可靠的健康內(nèi)容區(qū)分開來;與致力于將該工具商業(yè)化的技術(shù)公司不同,WHO致力于利用新技術(shù),包括人工智能和數(shù)字健康,以改善人類健康,同時(shí)建議決策者確保患者安全和保護(hù)。
WHO并表示,建議在廣泛應(yīng)用于日常醫(yī)療和藥物治療之前,應(yīng)解決這些問題,并對(duì)其效益進(jìn)行清晰的評(píng)估,無論是由個(gè)人、醫(yī)護(hù)人員還是衛(wèi)生系統(tǒng)管理者和決策者使用。
WHO并重申,在設(shè)計(jì)、開發(fā)和部署醫(yī)療AI時(shí),應(yīng)遵守該組織《醫(yī)療衛(wèi)生中AI的倫理與治理指南》列舉的倫理原則和適當(dāng)?shù)闹卫泶胧?/p>
該指南中確定的六項(xiàng)核心原則是:(1)保護(hù)自治權(quán);(2)促進(jìn)人類福祉、人類安全和公共利益;(3)確保透明度、可解釋性和可理解性;(4)促進(jìn)責(zé)任和問責(zé);(5)確保包容性和公平性;(6)促進(jìn)具有響應(yīng)能力和可持續(xù)性的AI。
【來源:第一財(cái)經(jīng)】