當前位置: 主頁 > 活動訊息 >
 

英特爾協助將人工智慧導入生活

本文作者:英特爾       點擊: 2016-08-18 10:10
前言:
 邁向人工智慧之路
       人工智慧(Artificial Intelligence,AI)似乎是遙遠的未來願景,然而人工智慧早已圍繞在我們生活中,機器的能力發展得突飛猛進,它們能感知、學習、推理,針對現實世界狀況進行反應與調適。這樣的現況不僅促成產業的轉變,也在我們生活注入許多驚奇改變,使人們的能力大幅強化,各種繁瑣或危險工作交給機器自動完成,而我們眼前一些最艱鉅的社會問題也獲得解決。
 
 
機器學習 (Machine Learning)
       雖然去年全球只有不到10%的伺服器被用來支援機器學習註一,機器學習實為目前成長最快速的人工智慧領域,也是擴展人工智慧應用範疇的關鍵運算方法。機器學習的核心就是運用各種電腦演算法,並根據資料做出預測,讓機器能自主反應或思考,不需明確指示就能執行特定功能。機器經過訓練後,能察覺有意義的模式與複雜資料之間的關聯,之後再對新進的資料進行評分或分類,以執行各種作業。目前業界得花費數週的時間才能訓練機器學習模型,因此這些模型無法以即時模式從新資料與資訊中學習。然而,隨著世界變得更加智慧化與連網化,衍生的資料呈現爆炸性的成長,這些模型在從這樣的世界學習之後,加上運算效能的提升,機器學習的模型也逐漸發展得更加精準與實用。目前全球用來支援機器學習作業負載的伺服器中,高達97%都採用英特爾的處理器註二。
 
深度學習
       深度學習為機器學習新衍生的分支且發展得相當迅速。深度學習採用類神經網路模型來瞭解更為複雜與非結構化的資料,並在許多領域取得突破性的進展,包括影像辨識、口語辨識、自然語言處理、以及其他複雜作業。深度學習模仿人腦的神經元與突觸,透過反覆推理歸納進行學習,並在神經網路中建立複雜的通道。這些演算法用在社群媒體上執行人臉辨識或是標記功能、在智慧型手機上進行語音辨識、執行半自動化車輛操控、以及其他眾多用途,並已經有許多人從中受益。
 
英特爾針對機器學習開發的技術
       為快速學習與反應,機器學習需要強大的運算能力來執行複雜的數學演算法,以及處理龐大的資料。為縮短訓練各種機器模型的時間,並改善評比資料的速度,業界必須全面轉移至分散式運算,採用一種強健的多節點叢集基礎設施。英特爾提供一致的編程模型與共通架構,能廣泛運用在高效能運算、資料分析、以及機器學習等作業負載。
 
·Intel® XeHYPERLINK "http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-detail.html"on Phi™處理器系列HYPERLINK "http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-detail.html"HYPERLINK "http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-detail.html"讓資料科學家更快地訓練複雜的機器演算法,並可比GPU執行更廣泛多元的作業負載。在32節點的基礎架構上,Intel® Xeon Phi™處理器系列的擴充效能比GPU高出1.38倍註三。

·Intel® Xeon®處理器E5系列是最被廣泛建置用以運行機器學習推論的處理器,能為各種資料中心的作業負載執行增加彈性。另外再搭配Altera Arria 10 FPGA,不僅可以發揮優異的每瓦效能,還能重新設定元件來處理不同類型的作業負載。 

·Intel® Scalable System Framework可擴充系統框架提供種類眾多的參考架構與設計,除了增進技術互通性,還降低布建的複雜度,提供理想的途徑使各界得以廣泛採用分散式深度學習演算法,並大幅縮短建模時間。

·英特爾和深度學習的領導廠商HYPERLINK https://newsroom.intel.com/editorials/foundation-of-artificial-intelligence/Nervana Systems*簽署併購協議。Nervana Engine(矽智財)及專業,將提升英特爾的人工智慧技術深度、強化深度學習效能及Intel® Xeon®處理器和Intel® Xeon Phi™處理器的總持有成本。 
  
機器學習的開放策略
       英特爾積極和開放原始碼社群合作,並提供各種函式庫與應用程式介面以加快人工智慧的發展,並促使各界廣泛採用各種功能強大的工具。
 
機器學習框架最佳化
·在機器學習方面,英特爾和開放原始碼社群合作,一同為各種業界標準框架進行最佳化,其中包括Caffe*與Theano*,客戶能運用現有的基礎架構,讓英特爾技術發揮極致的效能。運用最佳化版Caffe的客戶如今在英特爾架構環境下能獲得比主流版本提升30倍的效能註四。 

·在2016年底前,英特爾將對其他主要機器學習框架針對英特爾架構進行最佳化。
 
機器學習最佳化函式庫
·英特爾針對常見的機器學習基元著手最佳化各界廣泛採用的Intel® Math Kernel Library (Intel® MKL),讓各界能免費透過標準API組合取用經過最佳化的程式碼。

·英特爾計畫釋出Intel® Math Kernel Library–深度學習類神經網路 (Intel Math Kernel Library – Deep Learning Neural Network,Intel® MKL-DNN)提供MKL深度學習類神經網路分層的開放原始碼方案,此舉將促進各界整合與採用熱門的開放原始碼深度學習框架。

·Intel Data Analytics Acceleration Libraries (Intel® DAAL)現在透過開放原始碼的形式釋出並支援深度學習技術。 

·英特爾計畫在2016年底之前釋出一款深度學習軟體開發套件。
 
英特爾開發者專區(Intel Developer Zone)
·英特爾開發者專區為超過10萬名開發者提供使用各種機器學習工具的訓練方案,並將在2016年持續擴增訓練機會。
·英特爾為選定的學術機構提供Intel® Xeon Phi™處理器系列,以促進新一代深度學習演算法的研究。
 
註一、資料來源:英特爾估計。
註二、資料來源:英特爾估計。
註三、文中提及32節點的系統其擴充效率高出38%,根據的是GoogLeNet深度學習影像分類訓練拓撲,使用一個大型影像資料庫進行訓練,比較單一節點Intel Xeon Phi處理器7250 (16 GB記憶體、時脈1.4 GHz、68個核心) 的Intel® Server System 伺服器LADMP2312KXXX41;主記憶體為DDR4 96GB DDR4-2400 MHz;4叢集模式;MCDRAM平坦記憶體模式;作業系統Red Hat* Enterprise Linux 6.7; Intel® Optimized DNN Framework 框架,87%效率模式,32個未知主控端各自運行NVIDIA Tesla* K20 GPU,達到62%效率 (資料來源: http://arxiv.org/pdf/1511.00175v2.pdf 文件顯示FireCaffe搭配32個NVIDIA Tesla* K20s (Titan超級電腦*)運行GoogLeNet*,速度比在每個K20上運行Caffe快了20倍)。
註四、文中提及軟體最佳化的改進幅度達30倍,根據的是客戶CNN執行訓練作業,在2S Intel® Xeon®處理器E5-2680 v3上運行Berkeley Vision and Learning Center* (BVLC) Caffe 以及OpenBlas*函式庫,之後再進行調校過的系統,運行Intel® Optimized Caffe (內部開發版) 與Intel® Math Kernel Library (Intel® MKL)函式庫。
 
文中提及的成本降低,旨在提供例子讓讀者瞭解內含英特爾處理器的產品在特定情況與組態下,可能影響未來的成本以及提供成本撙節。實際情境可能有所異動,對於成本項目或成本降低的幅度,英特爾不提供任何保證。
 
英特爾技術的功能與優勢會因系統組態而異,而且可能需要運用支援特定功能的硬體、軟體、或啟用相關服務。效能會依系統組態而異。沒有電腦系統能達到絕對的安全。詳情請洽詢系統製造商或零售商,亦可瀏覽intel.com。
 
效能測試中採用的軟體與作業負載可能僅針對英特爾微處理器進行效能最佳化。包括SYSmark與MobileMark在內的效能測試,是採用特定電腦系統、零組件、軟體、作業與功能進行量測。這些因素若有任何異動,皆可能導致測得結果產生差異。建議您參考其他資訊與效能測試數據,協助您充分評估欲購買產品的效能,包括它們在搭配其他產品運行時的效能。詳細資訊請參閱http://www.intel.com/benchmarks 。
 
Intel、Xeon Phi、Xeon與Intel標誌為英特爾公司在美國與其他國家之註冊商標。
*其他品牌和名稱為其所屬公司的資產。
 

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11