當前位置: 主頁 > 新聞 >
 

在 Microsoft Bing 智慧搜尋引擎中應用 Intel© FPGA 加速深度學習的人工智慧

本文作者:英特爾       點擊: 2018-03-27 10:49
前言:
Microsoft携手Intel發佈令人振奮的創新技術
2018年3月27日--人工智慧 (Artificial Intelligence,AI) 是市場上火熱的話題,它不僅使整個產業脫胎換骨,還改變資料解譯、管理的方式,更重要的是它能夠更快解決人們與企業的問題。
 
今日,Microsoft 的 Bing* 智慧搜尋引擎(Intelligent Search) 新聞 對外展示 Intel® FPGA (現場可編程化邏輯閘陣列)技術如何為 Microsoft 最先進的 AI 平台提供技術支援。透過即時的 AI 技術支援,進階的 Bing 搜尋引擎可以協助人們做得更多、學得更快,它不再只是提供搜尋結果,而是超越提供標準搜尋本身 — Bing 智慧搜尋引擎可以為人們提供答案而不是網頁,讓系統可以理解文字及文字背後的意義,提供上下文和文章意圖搜尋。
 
現今以資料為中心的世界,使用者對搜尋引擎的要求比以前更多。Intel 的進階技術每天提供 Bing 強大的即時 AI 支援,為使用者帶來更佳的智慧搜尋能力。在 Intel® Arria® 和 Intel® Stratix® FPGA 上執行的 Brainwave 專案,即透過 Microsoft AI 深入學習平台加速需要密集運算的工作負載。
 
FPGA 如何支持智慧搜尋?透過機器學習與強化閱讀理解能力,Bing現在可以快速提供多個使用者正在尋找的智慧答案,而不是只提供連結清單給使用者手動查看。Intel FPGA強化了這項技術,讓 Bing 可以快速處理網路上數百萬份文章,讓使用者從上下文獲得答案。現在使用者可以自已查看各種問題,像「咖啡對身體健康好不好」或「瑜珈對生理健康有何好處」,搜尋引擎將會提供各種觀點,甚至連「一份熱狗的卡路里有多少」這種問題,Bing 都可以分享卡路里及消耗卡路里需要跑步幾分鐘這類訊息給您。 
 
像 Bing智慧搜尋引擎這類應用程式,Intel FPGA 讓即時 AI 可以透過提供完整的自訂硬體加速器,來輔助 Intel® Xeon®處理器進行深入神經網路的大量計算需求,同時藉由快速變化的 AI 模型保持不斷發展的彈性與達到高吞吐量,發揮最大效能以提供即時的 AI 支援。
 
這個典型範例展現 了Intel FPGA如何讓開發商在處理硬體時直接設計加速器功能,來降低延遲率、提升吞吐量,同時改善電源效率。FPGA 高效靈活的架構可加速 AI 工作負載的效能,包括機器學習和深入學習,同時也可以加速其他各種工作負載的效能,如網路、儲存裝置、資料分析和高效能運算等等。
 
Microsoft 和 Intel 幾十年的合作關係,讓客戶可以跨越各種使用案例發揮資料中心基礎架構的最大效能與功能。智慧搜尋引擎是兩家公司合作的另一個範例,我們為工作選擇合適的工具,迎接現今雲端資料中心所帶來的挑戰。今日,這樣的合作產生了另一項複雜但令人振奮的 AI 部署,更明白的說,撇開咖啡是否對身體有益不談,Intel FPGA 的強大功能正快速改變資料的處理方式,同時讓所有的搜尋都變得更聰明,有利事物的長期發展。
 
關於 Reynette Au
Reynette K. Au 為 英特爾可編程解決方案團隊行銷副總。

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11