拿到這麼多投資之後,AI公司真能研發出高獲利的產品嗎?

分享至

新的AI工具不斷冒出,而舊有的工具也不斷更新改進,AI相關的產業看似一片欣欣向榮,但…真的是這樣嗎?雖然2023年生成式AI的出現改變了我們的生活,而經濟市場上的資金也瘋狂地挹注入AI產業,但投資人們卻發現,現今的AI是否能夠帶來記的獲益是個大問號。畢竟目前的AI產品要能實際獲利,仍面臨著兩大瓶頸。總結來說,2024年是投資人觀察AI是否能夠帶來實際獲利的關鍵一年。

撰文|謝達文

來源:MotionElemts

當未來的歷史學家書寫AI的發展歷程時,很可能會形容2023年是世界真正認識AI的一年。在這一年,ChatGPT、Midway、Dall-E等工具頻頻出現在新聞當中,資金也大量湧進AI產業。一整年中,光是相關新創公司獲得的投資總額便高達270億美金,而本來就無比重要的晶片產業也因為AI的發展更加受到關注,如輝達、超微等公司的訂單都再創高峰。事實上,要回顧2023年的科技乃至經濟新聞,都很難不談到AI。

但是,如果說2023年是令投資人對AI感到既好奇又興奮的一年,2024年則很可能是投資人更要求AI帶來實際獲益的一年。而這也將是未來一年AI產業發展的關鍵看點:各家科技公司能否發展出AI產品更好的獲利模式?如果不能,投資人是否有耐心繼續等下去?

到目前為止,AI的技術本身雖然蓬勃發展,但能夠讓開發商大量獲利的應用還不多見。這點其實與網際網路剛發明時的狀況非常相似:現有工具以免費或低價的服務為主,實際產出收益的管道(比如廣告之於網際網路)尚未成熟。這意味著公司即使做了投資,也開發出產品,卻未必能獲得相應的獲利。最近的例子是以多媒體相關軟體開發著稱的公司Adobe,原先對外宣稱將在產品中以更多、更成熟的方式融入生成式AI,但新一年的預期獲利卻不如外界期待。這樣的問題也意味著,華爾街和其他大投資商可能會越來越期待各公司證明自己確實有獲利的能力,未必會像2023年般如此熱情而且慷慨。

但是,AI產品要能實際獲利,目前仍面對兩大瓶頸。

 

瓶頸一:缺乏訓練資料

首先,AI工具一大商用機會是販賣給一般企業,成為幫助公司提升生產力的工具,比如用於自動化產生各種專業文書,或者產出資料分析。然而,對於企業而言,如果要讓AI充分發揮潛力,其實不能只使用「由網路上各種資料訓練出的大型語言模型」,畢竟這樣的模型經常太過簡陋、不夠「專業」,容易產出錯誤的內容。這些企業需要的模型,得要以「運用專屬於該產業甚至該公司的資料」訓練。2023年8月底,OpenAI就宣布將推出商用版的ChatGPT,正是想要瞄準此一市場。

這件事情在理論上簡單,在實踐上卻不那麼容易,面對兩大阻礙。一方面,企業對於資訊安全和商業機密有一定的顧慮:當公司內部的資料、自家員工的產出成為訓練資料,是否形同洩漏機密?會不會直接或間接外流?誰願意讓自家公司成為產業裡第一隻白老鼠?而另一方面,多數公司過去並沒有將各種內部資料「建檔」成可以用來訓練AI的型態,且重新歸建、整理資料是相當耗費時間、人力、資源的一件事,這也將使得AI商用面臨額外阻礙 (Wigglesworth, 2024)。

正是在這個背景下,專精資訊科技的高德納顧問公司 (Gartner) 預估,2024年全球民間企業花在生成式AI工具上的支出可能將只有200億美金;相較之下,資安支出則預估高達1000億美金,是前者的五倍之多 (Waters, 2023)。有趣的是,微軟公司所研發的AI生產力軟體Copilot目前要價高昂,是相應舊有軟體價格的兩倍之多,顯示微軟對於該產品的吸引力仍然相當有信心。但一般企業真的願意買單嗎?或者會持續觀望?又或者只會讓少量員工使用,以降低成本?這將是未來值得觀察的重點。

 

瓶頸二:缺乏推理與分析的能力

如果第一項瓶頸是技術問題,第二項瓶頸則涉及生成AI的本質:AI並不「理解」自己在做什麼,因此一直有不低的錯誤率,尤其在涉及推理與分析時更是如此。但推理與分析仍是許多商業應用中不可或缺的環節,這使得企業未必真的放心把工作交給AI。

比如,許多人寄望AI可以協助金融等產業將資產管理工作自動化,但這種產業的資料管理經常涉及邏輯判斷,而AI在這方面仍有待加強。國際結算銀行 (Bank for International Settlements) 的經濟學家近期就有這樣的發現 (Perez-Cruz and Shin, 2024):「謝麗爾的生日」(Cheryl's Birthday) 是相當著名的數學邏輯情境題,甚至有自己的維基百科頁面,而ChatGPT確實可以成功解題。但是,因為ChatGPT解題靠的是網路資料的文字,而非實際上的邏輯推演,所以即使題目的基本邏輯不變,只是更改此一情境題中的數字本身、甚至角色本身,ChatGPT就會不斷輸出錯誤的答案。這樣的錯誤,意味著金融組織可能還需要等待一段時間,才有辦法真的把工作交給AI。

對此,我們需要觀察的問題是:要等多久?會不會有嚴重的錯誤案例,打擊投資人和消費者的信心?甚至,這一天是否根本不可能到來?畢竟,生成式AI的基本運作原理就不是建立在邏輯推理之上,而是建立在預測之上,是以訓練資料為基礎,針對個別的詠唱預測出「統計上最有可能與之同時出現」的文字。但語言上的關連並不擔保事實上或邏輯上的正確性,而這很可能成為AI商用的另一大限制 (Wigglesworth, 2023)。

 

回顧科技史,投資一定有輸家

既然AI商用面臨這兩項嚴峻的挑戰,這是否意味著許多投資其實可能會「打水漂」呢?是的,但歷史告訴我們,這件事情並不奇怪,甚至可以說是必然的。

畢竟,科技發展經常需要大量的試誤,而試誤意味著許多創新者會失敗、會倒閉、會破產。何況,一項創新到底能衍生出怎樣的應用價值,多數時候其實很難預見 (Naughton, 2023)。因此,科技與投資雖然聽起來都應該要很理性,但其實,人類科技的進步經常需要「不理性」的投資人願意「給一個機會」。1990年代網際網路的發展正是如此,泡沫甚至一度破裂,多家知名公司倒閉,投資人血本無歸,股市被打回原點,但現在科技業的重要公司如Google和Amazon卻也都是在那次的泡沫中獲得第一桶金。美國鐵路的故事也是如此:資金大量湧入,最後也面臨泡沫破裂,多家鐵路公司倒閉,但如果沒有初始資金,美國就不會有最後留下來的鐵路建設 (DeLong, 2003)。

到頭來,投資新科技總會有輸家,AI恐怕也不會是例外。科技業若要克服前面討論的技術問題、發展出獲利模式,就得忍受許多創新的嘗試失敗,對華爾街和其他金融機構而言,這就意味著必須接受許多投資人將會血本無歸。雖然所有的投資人都對創新有貢獻,但很可能只有少數人會從中獲利──或許有些人會認為這很不公平,但這就是投資創新的現實情況。

 


參考文獻

  1. Waters, Richard, 2023, “The AI revolution’s first year: has anything changed?”, Financial Times.
  2. Wigglesworth, Robin, 2024, “BIS vs LLM.”, Financial Times.
  3. Perez-Cruz, Fernando and Hyun Song Shin, 2024, “Testing the cognitive limits of large language models.”, BIS Bulletin 83: 1-9.
  4. Wigglesworth, Robin, 2023, “Hallucinating machines.”, Financial Times.
  5. Naughton, John, 2023, “For all the hype in 2023, we still don’t know what AI’s long-term impact will be.”, The Guardian.
  6. DeLong, Bradford J., 2003, “Profits of Doom.”, Wired.

 


✨延伸閱讀:《你敢讓AI熟悉公司機密嗎?AI商用的兩難

(Visited 1,046 times, 1 visits today)

分享至
views