電子商務和云計算巨頭Amazon.com(NASDAQ:AMZN)剛剛宣布,流行的Amazon Alexa數字助理運行在Amazon自己的硬件上,而不是由Nvidia設計的芯片(NASDAQ:NVDA)。在11月12日針對亞馬遜Web服務(AWS)開發人員的博客文章中,技術推廣員Seb Stormarcq說,Alexa的機器學習工作負載的“絕大部分”現在運行在亞馬遜的AWS Inferentia芯片上。

什么是新的?

需要明確的是,您可能在假期購買的Amazon Echo設備和其他Alexa驅動的設備沒有發生變化。重大轉變發生在Alexa服務的后端,在那里數據被發送到AWS云系統進行最終處理。Inferentia被明確設計為運行神經網絡軟件,這是Alexa學習如何解釋口頭命令的方式。

根據亞馬遜的早期測試,新的Inferentia集群可提供與Nvidia T4芯片相同的結果,但延遲降低了25%,成本降低了30%。較低的延遲將使Alexa開發人員可以對傳入數據進行更高級的分析,而無需用戶等待緩慢的計算。

背景故事

亞馬遜兩年前推出了Inferentia處理器產品線,旨在最大程度地提高公司人工智能工作負載的處理速度,同時通過減少芯片設計過程中的中間人來節省成本。原始設計來自于2015年被亞馬遜收購的專業芯片設計師Annapurna Labs。

Alexa并不是第一個依靠Inferentia支持的Inf1 AWS實例的Amazon產品。亞馬遜的面部識別工具Rekognition也正在轉移到Inf1實例。AWS客戶還可以自由使用Inf1和Inferentia進行自己的項目。例如,Snapchat的母公司Snap(NYSE:SNAP),健康保險巨頭Anthem(NYSE:ANTM)和全球出版商Conde Nast已經在使用基于亞馬遜Inferentia的神經網絡實例來促進其人工智能項目。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如有侵權行為,請第一時間聯系我們修改或刪除,多謝。