你敢讓AI熟悉公司機密嗎?AI商用的兩難

分享至

如果你是一家公司的老闆,你願意將公司的所有機密洩漏給AI嗎?OpenAI近期宣布將推出企業版的ChatGPT,能夠為客戶提供更專業的人工智慧,使AI能夠正式應用於專業的商務上。但大型語言模型商用仍面對關鍵的兩難:要夠有用,就必須夠專業;但如果要夠專業,就很可能涉及產業的機密,衍生資訊安全與商業祕密的問題。OpenAI聲稱,此版本將提供「企業等級的安全與隱私」,也承諾不會將客戶公司資料用於訓練AI。但…你會選擇冒這個風險嗎?

撰文|謝達文

很多人想像中,「未來辦公室」的工作模式應該是人與AI共同協作,在ChatGPT等大型語言模型竄紅之後,這樣的想像看來更有可能實現。按照這樣的想像,不論你在哪一個產業,都可以在電腦上輸入一些請求,AI就會依照先前所受的訓練,自動完成相應的文件、圖像、程式,即使是高度專業的任務也可以完成。

但是這樣的理想並不容易實現,癥結所在就是AI只能「依照先前所受的訓練」產出答案。

來源:重繪自MotionElements
商用AI的核心兩難

如果只是要回答一般性的問題,比如解答算術題目,或是產出制式信件,AI經常可以應付。但如果要回答特定的專業問題,現行的AI經常無能為力──近期最有名的例子是,美國有律師以ChatGPT產出法律文書,卻被法官發現內容多處引用根本不存在的判決先例,因此被裁罰5000美金 (Shin, 2023)。在這個案例中,文書所引用的這些判決先例是AI幻想出來的:AI透過所學,知道這類的文書必須大量引用「像是判決先例的東西」,但AI又不夠「專業」,無法真的辨別並整理相關的先例,反而是「幻想」(hallucinate) 出不存在的判決。而這樣的問題,不只在法律上可能發生,也可能出現於其他專業領域。

順著AI發展的邏輯,要解決這樣的問題理論上其實並不困難:我們可以研發更專業的大型語言模型,用更符合產業專業需求的資料訓練AI。但這樣的解法,在實務上卻相當難達成──畢竟,這些資料要從哪裡來?

試想,如果你是公司的經營者,不論你在任何產業,你是否願意讓你的公司當「志願者」,讓員工不斷把產業相關的資訊提供給大型語言模型資料,甚至提出回饋,讓模型可以透過學習逐步改善,成為對產業更有用的AI?尤其,在大型語言模型建置初期,AI對產能的幫助可能非常有限,錯誤可能相當多,這樣做到底所謂何來?而從資訊安全的角度,讓公司員工把各種內部的工作需求「外包」給AI,是否也等於是洩漏公司營運的資訊,從此無法在管控資訊的流向?這些自家員工餵給AI的資訊,是否會因為成為訓練資料,而被其他同業得知?(Waters, 2023)

這也就是商用AI發展的核心兩難:要夠有用,就必須夠專業;但如果要夠專業,就很可能涉及產業的機密,衍生資訊安全與商業祕密的問題。

也是在這樣的考量下,即使調查顯示已經有將近三成的美國勞工經常在工作上使用ChatGPT (Naidu, Coulter and Lange, 2023),卻仍有許多大公司禁止或不鼓勵員工使用AI協助工作;在臺灣,政府目前也禁止公務員運用AI生成機密文書,也嚴禁公務員向AI提供機密資訊(吳柏軒,2023)。這些在在都是因為資訊安全的考量──AI希望提供更符合專業需求的服務,但企業與政府不敢將專業資訊託付給AI。

 

ChatGPT公司版,可以逃脫這個兩難嗎?

在今 (2023) 年八月底,ChatGPT的研發公司OpenAI正式宣布要推出商用版的ChatGPT。在官方網站的公告上,OpenAI特別強調商用版將提供「企業等級的安全與隱私」,正是要回應上述的難題 (OpenAI, 2023)。

具體而言,OpenAI特別承諾,企業版「用戶的詠唱 (prompts) 和公司的資料,並不會用於訓練OpenAI旗下的模型。(換言之,這是否間接承認現行免費版和付費旗艦版,用戶輸入的資料都還是會用於訓練,OpenAI則沒有明確回覆。)

如果公司相信OpenAI的承諾,這或許解決了資安問題,但兩難的另一面馬上浮上檯面:這樣的大型語言模型,真的能符合企業的專業需求嗎?涉及產業專業知識或技能的需求,企業版ChatGPT是否依然將無能為力,甚至會夾雜眾多幻想出的錯誤資訊?

這一點是OpenAI再來必須努力的問題,身為營利公司,嘗試將自己的技術推廣做高階商用,是相當合理的發展。但是,OpenAI是否有能力真的做到,卻是另一個問題。尤其,OpenAI創辦人自己公開承認,OpenAI現在已經可能是「矽谷最資本密集的新創」,分析家更指出,ChatGPT現行的營運成本已經相當高昂 (Chowdhury, 2023)。在這樣的背景下,公司是否有辦法投注額外資源,聚焦在處理符合若干特定產業需求的訓練資料之上,也是未來值得關注的重點。

 


參考文獻

  1. Shin, Rachel, 2023, “Humiliated lawyers fined $5,000 for submitting ChatGPT hallucinations in court: ‘I heard about this new site, which I falsely assumed was, like, a super search engine’.”, Fortune.
  2. Waters, Richard, 2023. “The paradox of OpenAI’s bid to enter the corporate world.”, Financial Times.
  3. Naidu, Richa, Martin Coulter, and Jason Lange, 2023, “ChatGPT fever spreads to US workplace, sounding alarm for some.”, Reuters.
  4. 吳柏軒,2023。〈國科會公告 機密公務禁用ChatGPT /「生成式AI參考指引草案」收集意見 28日截止〉,《自由時報》。
  5. OpenAI, 2023, “Introducing ChatGPT Enterprise.”
  6. Chowdhury, Hasan, 2023, “ChatGPT cost a fortune to make with OpenAI's losses growing to $540 million last year, report says.”, Business Insider.

 


📖 延伸閱讀:《【AI尋寶趣成果展講座】AI世代的教與學(上)》、《【探索26-9】AI能審辦人類嗎?》、《【人物專訪】您好,AI法官?——專訪黃詩淳教授

(Visited 78 times, 1 visits today)

分享至
views