2022年12月,計算生物學家Casey Greene和Milton Pividori開始了一項不尋常的實驗:他們請了一位不是科學家的“助手”修改3篇研究論文。這名“助手”對每份手稿的審閱時間約為5分鐘,并且在幾秒鐘內就對論文的各個部分進行了修改。另外,在一份生物學手稿中,“助手”甚至細心地發現了一個方程式的錯誤。“助手”修改后的論文可讀性更高,且每份論文花費僅僅不到0.50美元。Greene和Pividori將這項實驗整理成了論文,在2023年1月23日發表在了預印本平臺bioRxiv上。論文顯示,這名“助手”不是人,而是2020年首次發布的一款名為GPT-3的人工智能(AI)算法。最近引起廣泛關注的ChatGPT就是GPT-3的其中一個版本,這些工具被稱為大型語言模型(large language models,LLMs)。ChatGPT所屬公司OpenAI于2019年10月獲得了微軟10億美元的投資;2023年1月,微軟再次宣布將向OpenAI投資“數十億美元”。雖然沒有透露投資的具體細節,但據信,微軟的投資價值達100億美元。微軟也宣布,要將類似ChatGPT的AI功能全面整合進辦公工具Teams中,以實現發郵件、做會議記錄等功能。但是,LLM也引發了行業廣泛的擔憂:一方面擔心它們會在聊天中生成虛假信息,另一方面擔心AI生成的文本會冒充人工寫作的文本。一些研究人員認為,只要有人類監督,LLM會非常適合加速撰寫論文等任務。軟件咨詢公司InstaDeep的研究工程師Tom Tumiel表示,他每天都使用LLM作為助手來編寫代碼。但有些研究人員強調,LLM在回答問題方面從本質講上是不可靠的,它有時會產生錯誤的回答,這種不可靠性體現在LLM的構建方式上。ChatGPT通過學習龐大的在線文本數據庫中的語言統計模式來工作,這些龐大的信息也包括很多不實、偏見或過時的知識,結果就導致LLM很容易產生錯誤和誤導性信息。知曉了這些注意事項后,ChatGPT和其他LLM可以成為研究人員的有效助手,因為研究人員具有足夠的專業知識,可以直接發現問題并驗證答案,例如辨別AI對計算機代碼的解釋或建議是否正確。一些科學家說,ChatGPT目前還沒有接受過足夠專業的內容培訓,無法在技術領域上有所幫助。Kareem Carr是哈佛大學的一名生物統計學博士,當他在工作中進行實驗時,對ChatGPT并不感興趣,他認為ChatGPT很難達到他所需要的特異性水平。一些科技公司正在對聊天機器人進行專業科學文獻的培訓,不過這個過程也遇到了一些問題。2022年11月,擁有Facebook的科技巨頭Meta發布了一個名為Galactica的LLM,該LLM接受了科學文摘的訓練,目的是讓它特別擅長制作學術內容和回答研究問題。不過Galactica上線僅兩天就因輸出結果有偏誤而光速下架,但論文和源代碼會繼續開放給相關領域研究者。Galactica事件給了我們關于倫理和安全方面的啟示:如果不去人為地控制輸出,LLM就會很容易被用來產生仇恨言論、垃圾郵件、種族主義、性別歧視和其他可能的有害聯想。密歇根大學安娜堡分校科學、技術和公共政策項目主任Shobita Parthasarathy表示,除了直接產生有害內容外,人們還擔心AI聊天機器人會從訓練數據中嵌入關于世界的歷史偏見或想法,比如特定文化的優越性。OpenAI在決定公開發布ChatGPT時試圖避開這些問題。它將自己的知識庫限制在2021年,阻止它瀏覽互聯網,并安裝了過濾器,試圖讓該工具拒絕生成敏感或有毒提示(toxic prompts)的內容。但OpenAI的“攔截”并沒有完全成功。2022年12月,加州大學伯克利分校的計算神經科學家Steven Piantadosi在推特上說,他要求ChatGPT開發一個“根據一個人的原國籍來判斷他是否應該被折磨”的Python程序,ChatGPT回復了代碼,運行后發現:如果這個用戶的國籍是朝鮮、敘利亞、伊朗或蘇丹,這個人就會被判定為“應該受到折磨”。雖然OpenAI隨后關閉了這類問題,但也表明ChatGPT仍不可避免地存在一些問題。一些研究人員表示,學術界應該拒絕支持大型商業LLM。這些計算密集型算法還需要大量的能量來訓練,這引起了人們對它們的生態足跡(ecological footprint)的擔憂。而且,如果把思考的任務交給自動化聊天機器人,研究人員可能會失去表達自己想法的能力。首先,因為ChatGPT寫出的論文質量極高,教育系統甚至已經開始考慮“封殺”這個程序,以防學生利用它作弊;也因為即便是專家也難以區分這些內容是否來自AI,所以Nature在內的多家科學雜志也要求論文中需要明確指出是否使用了ChatGPT。其次,無論是老師看到學生提交的論文,還是碼農看到網上的代碼,都不敢確定作者是人還是AI。口誅筆伐之下,OpenAI頂不住了,火速發布了一款AI檢測器,它是一個經過微調的GPT模型,可以推斷一段文本由AI產生的可能性。最后,另一個解決方法是讓AI內容帶有自己的水印。去年11月,德克薩斯大學奧斯汀分校的計算機科學家Scott Aaronson宣布他和OpenAI正在研究一種ChatGPT輸出的水印方法。水印的一個優點是它永遠不會產生假陽性。如果有水印,就說明文字是AI生成的。生成式AI背后的計算機科學發展非常快,每個月都有創新出現。與此同時,深耕LLM的公司正忙于開發更復雜的聊天機器人,包括專門針對學術或醫療工作的工具,另外,OpenAI預計將在今年發布GPT-4。未來,研究人員選擇如何使用這些工具將會決定人類的未來。本文編譯自 https://www.nature.com/articles/d41586-023-00340-6聲明:本文系藥方舟轉載內容,版權歸原作者所有,轉載目的在于傳遞更多信息,并不代表本平臺觀點。如涉及作品內容、版權和其它問題,請與本網站留言聯系,我們將在第一時間刪除內容