找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 63|回復: 0

蘋果開發出新的AI系統「ReALM」表現優於GPT-4,幫助Siri理解使用者

[複製鏈接]

6

主題

0

回帖

35

積分

新手上路

積分
35
發表於 2024-4-2 19:22:00 | 顯示全部樓層 |閱讀模式
蘋果語音助理 Siri 光是理解使用者提問,可能就要人們解釋半天,因此常常無法正確回答問題。蘋果研究人員開發出新的 AI 系統「ReALM」,可理解螢幕畫面上的實體,以及對話和背景的上下文關係,可望幫助 Siri 自然對話互動。

上週一篇主題為《ReALM: Reference Resolution As Language Modeling》的論文上傳至 arXiv.org,ReALM 利用大型語言模型,將複雜的指代消解任務轉換成純粹的語言模型問題。與現有方法相比,ReALM 能夠顯著提升性能。

「能夠理解上下文,包括參考資料,對語音助理而言相當重要」,蘋果研究人員寫道。

為了處理螢幕畫面上的參考資料,ReALM 關鍵做法是解析螢幕畫面上的實體及其位置來重建內容,捕捉視覺布局產生文字提示。研究人員證明,這種方法與專門針對指代消解的微調語言模型結合,可在執行解析任務上優於 GPT-4 表現。

研究人員認為 ReALM 優於過去方法,與目前最先進的 GPT-4 表現大致相同,而且參數相對較少。更重要的是,ReALM 在處理特定領域的使用者語句優於 GPT-4,使得 ReALM 成為可在裝置端執行的理想選擇。

儘管在迅速發展的 AI 競賽落後如微軟、Google、Meta 等競爭對手,蘋果在 AI 研究領域一步步取得重大進展,今年全球開發者大會(Worldwide Developers Conference,WWDC 2024)將是蘋果布局 AI 的重要觀察點,市場預期蘋果將會對外公開 AI 計畫。

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|小黑屋|科技論壇

GMT+8, 2024-5-4 19:45 , Processed in 0.029506 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回復 返回頂部 返回列表