You are now offline.

史丹佛大學報告:2026年AI重點在「值不值得做」

史丹佛大學報告:2026年AI重點在「值不值得做」
知勢
分享
收藏
已完成
已取消

史丹佛大學人本人工智慧研究中心(HAI)在去年底釋出的報告中,為2026年AI趨勢定下「務實」的基調。報告提及,醫療保健領域將正式進入「ChatGPT時刻」,然而AGI還不會到來,而AI的真正價值將從炒作轉向務實。這也意味著,市場將開始嚴肅評估:一切的AI投資,是否真的物有所值?

AI焦慮日益浮現

歷經多年的急速擴張與鉅額資本競賽,AI應用在2025年達到了百家爭鳴的高峰,當然也帶來深刻反思:不僅要問「AI能做什麼」,更要問「AI應該做什麼」以及「為誰而做」。

史丹佛大學人本人工智慧研究院(HAI)這篇報導中指出,社會大眾的AI焦慮日益浮現,包括「我可以信任心理治療機器人嗎?」、「自動化是否取代了錯誤的工作環節?」、「個人的私人對話是否淪為訓練模型的養分?」與此同時,中國AI技術的崛起與地緣政治的角力,也讓局勢更加複雜。我們必須正視AI為一種「不完美但影響深遠」的技術,它正重塑著心理健康、兒童安全、職場尊嚴與隱私權。

而2026年將是關鍵轉捩點。根據史丹佛大學人本人工智慧研究院(HAI)專家們的預測,新的一年AI將從「話題炒作」轉向「價值驗證」。無論是法律規範、醫療應用標準,或是勞動力替代的經濟評估,市場不再買單模糊的願景,而是要問「AI能做得有多好?成本多少?為誰而做?」

主權AI崛起,與揮之不去的泡沫疑慮

HAI聯合主任、電腦科學教授James Landay直言,通用人工智慧(AGI)今年依然不會到來。更殘酷的現實是,除了程式設計與客服等少數領域外,企業將開始承認AI尚未帶來顯著的生產力提升,以及眾多的AI專案失敗案例。

另一方面,伴隨「主權AI(AI Sovereignty)」議題升溫,為了擺脫對美國政治體系或少數科技巨頭的依賴,各國政府將積極建立本土的大型語言模型(LLM),並推動數據在地化運算的GPU基礎建設,以確保數據不出境。

在基礎建設方面,儘管Nvidia和Open AI等組織仍積極遊說各國興建數據中心,且今年的投資熱度看似不減,但在這股熱潮背後,金融市場上「投機泡沫」的隱憂已揮之不去。

回到技術層面,目前的生成式AI發展似乎已達到了資料量的高峰值(Peak Data)。面對數據耗盡與品質不穩的挑戰,未來的開發重心將從「大數據」轉向「高品質小數據」,致力於訓練出效益更高的模型。與此同時,隨著影片生成工具日趨成熟,著作權、智財權等相關問題也勢必成為下一波攻防的焦點。

戳破過度承諾,回歸務實研究

2026年,科學、醫學與法律界不約而同地對AI提出了新標準,要求AI從單純的「通用能力展示」轉向「專業領域的深耕與驗證」。

開發者面臨著更深層的挑戰:不僅需釐清基礎模型的最佳融合策略,且更需要知道內部神經網路的運作機制(例如關注哪些數據特徵)。而在應用端,面對新創公司的推銷浪潮,醫療機構今年將開始發展評估AI系統影響力的方法,從技術規格、工作流干擾度、投資報酬率(ROI)到患者滿意度等。

傳播學者Angèle Christin便指出,2026年市場對AI的期望將回歸「務實」。儘管金融市場與科技巨頭已投入巨資,但現實跡象顯示AI無法實現所有先前宣稱的宏大願景,甚至反而可能帶來誤導。因此,即便AI泡沫未必會破裂,但也不會再無止盡膨脹。大眾將意識到AI的影響力其實是「溫和且具體」。未來的重點將轉向精細的實證研究,誠實地探討:AI到底能做什麼?不能做什麼?

專業門檻領域的發展將呈現「深化」與「爆發」並進

AI Medical
Freepik

法學教授Julian Nyarko指出,法律領域的市場焦點已從單純的生成能力轉向「ROI(投資報酬率)」與「嚴謹性」的考核。律師事務所不再問「AI能寫嗎?」,而是嚴格審視「寫得有多好?風險有多大?」。AI的任務也將從起草初稿,升級為處理複雜的文件推理,例如綜合事實與正反論證,而這也將需要一套新的測量框架(如引入LLM作為裁判)來進行評估。

而醫療領域則因技術門檻降低而迎來「爆發」。放射學教授Curtis Langlotz預測,醫療AI即將迎來屬於它的「ChatGPT時刻」。這主要受益於「自監督學習(Self-supervised learning)」的突破,大幅降低了過往昂貴的專家標註成本。新一代醫學基礎模型將在海量的高品質數據上進行訓練,不僅精準度大幅提升,甚至能為數據稀缺的罕見疾病診斷帶來曙光。

然而,史丹佛醫療中心首席數據科學家Nigam Shah卻提出深層隱憂。由於正規醫療系統的決策週期過長,感到受挫的開發者可能轉而尋求「直接面向用戶(Direct-to-user)」的模式,將應用程式直接「免費」提供給醫生或患者。這種繞過體制的做法帶來了風險,患者需要知道AI是根據什麼來提供「幫助」的,這一點將變得非常關鍵。此外,雖然大家都知道標竿測試(Benchmarking)很重要,但研究人員想靠它來追上技術發展的速度,將會變得越來越吃力。

從宏觀監測到微觀倫理:AI將邁向更精細化的管理

關於AI如何影響經濟,數位經濟實驗室主任Erik Brynjolfsson預言,答案將不再流於空泛的討論。他指出,未來將出現類似「營收儀表板」的監測工具,能即時在任務與職能項目上,精準追蹤AI何時取代了人力、何時又創造了新角色。這將讓領導者能像檢視每日營收一樣掌握AI動態,作為決策與政策制定的堅實基礎。

然而,在追求效率的同時,電腦科學助理教授Diyi Yang提醒我們關注「人」的本質。她指出,當前的AI越來越傾向於「阿諛奉承(sycophancy)」,只會順著用戶的話說。這在心理健康等敏感領域尤其危險。因此,未來的AI設計必須跳脫對短期流量的追求,轉而關注用戶的長期發展。AI的使命是增強人類能力,而這項思維必須在產品開發的第一天就納入考量,不能等到問題發生了才來修正。

本文授權轉載自《知勢》,作者:楊育青,原文標題:史丹佛大學 HAI:2026 AI 告別浮誇炒作,進入務實評估時代

TAGS: # AI
延伸閱讀
本文作者 《知勢》 楊育青 《知勢》 楊育青

「知勢」是由財團法人人工智慧科技基金會所成立的科技媒體,為讀者提供具影響力且可信賴的科技知識與趨勢。

使用會員功能前,請先登入

  • 收藏文章
了解更多關於創業小聚的資訊,歡迎透過以下服務: