顯示 1 - 5 篇文章 (共 65 篇)。
檢視更多 »
|
最新活動、研討會資訊
TPU、GPU、CPU深度學習平臺哪家強?有人做了一個基準測試研究
ParaDnn 能夠爲全連接(FC)、卷積(CNN)和循環(RNN) 神經網絡生成端到端的模型。研究者使用 6 個實際模型對谷歌的雲 TPU v2/v3、英偉達的 V100 GPU、以及 英特爾的 Skylake CPU 平臺進行了 基準測試。他們深入研究了 TPU 的架構,揭示了它的瓶頸,並重點介紹了能夠用於未來專業系統設計的寶貴經驗。他們還提供了平臺的全面對比,發現每個平臺對某些類型的模型都有自己獨特的優勢。最後,他們量化了專用的軟件堆棧對 TPU 和 GPU 平臺提供的快速性能改進。 論文:Benchmarking TPU, GPU, and CPU Platforms for Deep Learning ![]() |
人工智能(AI) 根據語音診斷大腦
長期以來,醫學界一直在講醫生需要聽取患者的陳述。如今,這項建議終被接受,用於診斷腦震盪和其他難以診斷的腦部疾病。
![]() 不論是因為足球比賽過程中頭部遭到重擊還是因為事故,腦震蕩的診斷都非常困難。
美國猶他州一家初創公司正在讓這個過程變得簡單,他們利用AI 和患者的聲音檢測發音模式中具有指示作用的微小變化(人耳無法聽到的變化),來幫助醫生做出正確的判斷。
這家名為 Canary Speech的公司正在建立語音測試,利用GPU加速的深度學習捕捉細微的聲音顫抖、語速變慢和說話不連貫現象,這些現象可以揭示腦部損傷,或對帕金森氏症或阿爾茲海默症等疾病做出預警。
球場邊的故事
“當球員在球場上被撞倒並感到眩暈時,沒有可行而客觀的方法來確定這名球員是否出現了腦震盪。”Canary Speech 聯合創始人Jeff Adams 說。
目前,教練或訓練員通過檢查受傷球員的平衡力、記憶力和注意力來檢查是否出現腦震蕩的症狀。標準測試會要求受傷球員回憶一系列詞語、倒背數字,並回答像“今天是幾號?”或“我們正在哪裡比賽?”這樣的問題,並且在紙上記錄答案。
“我們的想法是利用數據而不是通過觀察來進行評估。”Canary Speech 首席執行官Henry O'Connell 說。
使用語音測試是否出現腦震盪
越來越多的公司和大學在利用患者的聲音診斷並預測抑鬱症、心髒病和多動症(ADHD) 等各種疾病,Canary Speech 也是其中一員。
“我們的目標是及早發現警示信號,從而有足夠的時間更有效地治療疾病。”Adams 說。在與O'Connell(前美國國立衛生研究院研究員)創建Canary Speech 之前,Adams 領導團隊開髮用於Amazon 的聲控揚聲器Echo 的技術。
該公司計劃在今年晚些時候推出一款深度學習工具,教練和訓練員可以利用這款工具在場邊診斷腦震盪。他們還計劃在幾支NFL(美國國家橄欖球聯盟)球隊中測試一款腦震盪產品。當然,這兩款產品都無法取代醫生的診斷。
該公司通過記錄正常人和腦震盪患者在閱讀劇本時的表現,訓練其神經網絡尋找指示發生腦震蕩的模式。在此過程中,他們在Amazon雲中使用 NVIDIA Tesla K80 GPU加速器,並使用自己開發的語音識別工具。
提早警示阿爾茲海默症
Canary Speech 還在研究如何治療阿爾茲海默症。沒有測試能夠確定無疑地診斷出阿爾茲海默症,但O'Connell 表示AI 可以通過分析患者的講話方式,識別這種疾病的警示信號。例如,隨著病情發展,阿爾茲海默症患者使用的詞彙通常會越來越少,而且越來越簡單。
Adams 表示,診斷腦震盪和阿爾茲海默症只是一個開始。
他說:“未來,你在進行健康檢查時將需要提供一個語音樣本和一個血液樣本。這將改變我們治療疾病的方式。” |
未來NVIDIA的「新營收來源」
不久的將來,我們很可能會目睹一個 「暴富」 的英偉達出現。 兩天前的 2017 臺北電腦展上,一身黑色皮衣的 「黃教主」 再次現身,並且在獨立的人工智能論壇上再次發表了主題演講。不出意外的,演講中的內容主要來自半個月前的 GTC:新硬件 Tesla V100、新自動駕駛架構 NVIDIA DRIVE、跟豐田合作、新機器人云端平臺。 這些內容我們之前已經進行了相關報道,那麼是否還有其他新東西呢?事實還真有——NVIDIA HGX 合作伙伴計劃,NVIDIA 將會和富士康、英業達、廣達電腦、緯創四家 ODM 一起,推進 AI 雲計算的硬件普及。 雖然聽起來不復雜,但它卻決定了 「人工智能龍頭」NVIDIA 接下來能賺多少錢,同時還將影響人工智能改變人類生活所需要的時間。 NVIDIA,依舊 「轉型中」 的 AI 巨頭 ![]() NVIDIA DGX-1 內部照 「我們公司已經是一家人工智能公司了」 這樣的說法早就出現過不止一次。相比其他公司,相信沒幾個人會質疑 「NVIDIA 已經是一家人工智能公司」 這個說法。 事實上,最大的反對 「聲音」 正是來自 NVIDIA 自家的財報。 ![]() 爲了更加明顯對比,也專門收集了過去 2 年間 NVIDIA 的季度財報數據,在折線圖中表示如下: ![]() 但從折線圖來看,消費級顯卡所肩負 「遊戲」 用途依舊是 NVIDIA 整個營收中最重的部分,也決定了 NVIDIA 當下季度的財務表現。這也給很多普通投資者留下了 「話柄」:「雖然說起人工智能就會想到 NVIDIA,但是實際上連 NVIDIA 自己現在也不能完全叫做人工智能公司。」 不過單純只看營收數據也不完全準確,尤其是上圖中 「數據中心」 在最近 3 個季度所表現出的強勢上漲,所以我們換成整體營收百分比的方式再來看看變化: ![]() 在整體百分比的視角下,雖然藍色的遊戲還是佔據的絕大部分,但是灰色的數據中心增長有目共睹。相反,剩下的三個板塊包括汽車在內都是穩步甚至下滑的趨勢。 趨勢有了,但爲什麼數據中心這一塊業務進展的那麼慢呢?這背後有着一系列的問題,比如很多人會選擇高端消費級顯卡而不是專業卡,又或者是專用的服務器計算模塊單價太高,但是反過來這些雲端設備的缺乏也會爲具體應用場景的探索設下障礙。 可以說,這不僅是 NVIDIA 已經要到嘴的一塊肥肉,同時也是一個亟待推進的方向。於是乎,NVIDIA 再次祭出了 ODM(原廠委託設計代工)合作這招。 不起眼但野心足夠大:NVIDIA HGX 架構 ![]() NVIDIA HGX-1 宣傳照 作爲整個計劃背後的主角——NVIDIA HGX 架構主要包含兩個關鍵 「部件」:Tesla 系列 GPU、NVIDIA NVLink,兩項都值得單獨拎出來說說的技術。 首先是 Tesla 系列 GPU,相比普通消費級產品,前者的進化要神速不少。這一點我們可以從下面這個列表中看出: ![]() 表中一共有 7 款 Tesla 系列的代表性產品,當然在這份表格之前可能還有類似 Tesla K80 這樣的重要產品,但這裏我們暫時忽略。雖然一共 7 款產品,但是他們之間最大的發佈時間間隔不過 19 個月,連兩年都不到。 ![]() 既然是運算設備,首先關心的自然是計算能力,Maxwell、Pascal、Volta 三代架構的迭代給計算能力奠定了基礎。當然這兩年間 GPU 芯片的製程工藝也有所提升,讓在 GPU 芯片不斷升級的前提下依舊能保證散熱效果。 除了絕對參數之外,SXM 外形和接口的引入同樣重要。名字乍看與筆記本中傳統使用的 MXM 規格對應(SXM 更小),但在接口方面卻採用了相當 「喪心病狂」 的方案——左右兩部分一共 800pin。要知道,超過 1000pin 的芯片也只剩 CPU 一種了。 這種遠比常規顯卡規格 PCIe X16 的雙面 164 個針腳多的方案一方面爲未來的 GPU 運算核心升級留下了餘量,另外一方面給 NVIDIA Link 打下了基礎。 ![]() Tesla P100 處理器模塊的背面(兩個白色長方形即插槽) 接下來簡單說說 NVIDIA Link,這項技術早在 GTC2014 上就曾展示過。當時官方給出的參考性能是,NVIDIA Link 完全能夠做到普通顯卡 5~12 倍的傳輸速度。除了鏈接 GPU 與 GPU 之外,甚至還可以鏈接 CPU 和 GPU。究竟 Tela V100 的如何打造出 900GB/s 的驚人顯存帶寬,目前沒人知道。唯一可以確定的是,在高速存取數據的數據中心中,帶寬寬一點總歸是好的。 ![]() 這麼強勁的技術,NVIDIA 並沒有打算 「藏着掖着」。今年 3 月 9 號,NVIDIA 就已經宣佈了加入 OCP 開放計算計劃,最終與微軟合作推出的 HGX-1 超算模塊,CPU 方面更是沒有品牌限制,Intel 和 AMD 家的產品都可以。 ![]() 追根溯源,OCP(開放計算項目)實際上是跨公司設計和製造數據中心產品的一個組織。其中包含了一系列知名公司,比如:英特爾、諾基亞、蘋果、谷歌、微軟、希捷、戴爾等等。 這個組織的目的也很簡單——設計和實現最高效的服務器,同時還讓存儲服務器和數據中心更具有彈性。實際上,之前自己開發出另外一套 HGX 架構機器 Big Basin 系統的 Facebook,直接將自己機器的主板設計圖都上傳了。 頂級 ODM 巨頭齊聚首,吹響進軍號角? ![]() 介紹完前面這麼多相關信息,我們終於可以回到這次透露的信息中來。畢竟我們已經知道了:NVIDIA 自己必然會加大自己在數據中心市場的投入,而且 HGX 架構已經相當完善,技術也足夠成熟領先。 接下來問題就簡單了,如何才能夠讓儘可能多的人來購買爲數據中心打造的 GPU 產品。答案實際上就兩個字——價格。 ![]() 對於降低成本這件事,NVIDIA 自己可謂非常有發言權。爲了降低風險,同時又能夠讓市場內部保持一定競爭關係,主板、顯卡廠商其實一直都採用同一套模式:由 Intel/Nvidia 提供核心運算芯片。其他部件如 PCB、電子元件什麼的都交給這幾家 ODM 之類的廠商來完成。而 ODM 除了負責生產,同時還要利用自己在生產過程中的豐富經驗,幫助 NVIDIA 不斷降低生產成本。 這樣做法一家獨大肯定不行,所以 NVIDIA 一口氣找來了 4 家,這些 ODM 之間還會形成另外的競爭關係,在最終產品、經營策略、售價等方面或許都會因爲競爭而產生 「不同」,而這恰恰會與消費者自身的不同條件形成對應。 ![]() 在我們看來,由這些 ODM 和 NVIDIA 形成的全新 GPU 加速服務器大軍在 2017 年內可能就會來襲,而他們的目標則是爲當下所有存儲在服務器或者正在產生着的數據提供處理能力。 ![]() 順利的話,再造一個等同於消費級的數據中心 GPU 市場也是可能的。而後甚至有可能作爲 NVIDIA 的跳板,反過來推進生活中分佈式的小節點。 在一個遊戲已經不是唯一甚至不是重點的 「次顯卡時代」,NVIDIA 已經準備好向數據中心出擊了。一旦邁出這步,NVIDIA 離業績 「暴富」 也就不遠了。 |
黃仁勳親自撰文:AI Is Eating Software
我們正將人工智能推廣至每個計算平台、每個架構、以及人類的每項工作中。 本月,GPU技術大會(GPU Technology Conference)取得了巨大成功,向人工智能的懷疑論者充分證明了該革命性技術勢不可擋的力量。 在此次矽谷舉行的為期四天的大會裡,世界領先的媒體和娛樂、製造、醫療和運輸公司的代表們相互分享了GPU計算帶來的重大突破。 數字說明了一切。第八屆年度GPU技術大會堪稱有史以來規模最大的一次盛會,吸引了7000多名與會者和150家參展商,同時召開了600場技術會議。全球前十大科技公司,全球十大汽車製造商,以及100多家專注於人工智能和VR的初創公司悉數到場。 這些數字背後是勢不可擋的聚合趨勢。計算能力正在推動人工智能飛躍發展,足以抵消摩爾定律的放緩步伐。人工智能開發人員加快構建新的架構,以解決我們當前最大的挑戰。他們希望能廣泛運行人工智能軟件,從功能強大的雲服務到雲端設備不一而足。 人工智能計算時代— GPU計算時代 ![]() 世界上最先進的人工智能計算架構Volta正式面世。 在GPU技術大會上,我們推出了Volta,這是自統一計算設備架構(CUDA)發明以來我們這個時代最大的技術飛躍。它集成了210億個晶體管,採用12nm NVIDIA優化的TSMC工藝以及三星最快的HBM內存。Volta運行全新數字格式和CUDA指令,可以超高速執行4×4矩陣運算,進行元素級深度學習。 每個Volta GPU都擁有高達120 teraflops的浮點運算能力,我們的DGX-1 AI超級計算機將八片Tesla V100 GPU連接起來,能夠實現每秒近千萬億次浮點運算的深度學習性能。 GOOGLE的TPU 同樣在上週,谷歌在其I/O會議上推出TPU2芯片,其性能可達到45 teraflops。 令人高興的是,兩個領先的人工智能團隊雖然互相競爭,但也保持全面的深入合作,例如,調整TensorFlow性能,使用NVIDIA CUDA GPU加速GOOGLE雲計算。 人工智能是人類歷史上最偉大的技術力量,所有實現人工智能大眾化並使其迅速推廣的努力都值得稱道。 發展動力源自摩爾定律失效![]() 人工智能革命已經到來,儘管摩爾定律融合了Dennard縮放和CPU架構的領先優勢,而摩爾定律已在近十年前就開始失效。Dennard縮放通過降低晶體管尺寸和電壓,能夠使設計者在保持功率密度的同時增加晶體管密度和速度,但現在Dennard縮放遇到了元件物理的瓶頸。 CPU架構師只能獲得一定的指令級並行性(ILP),而電路和能耗卻已大幅度增加。所以在後摩爾定律時代,CPU晶體管和能耗大幅上升導致應用性能只有小幅增長。最近,其性能每年只增長10%,而過去每年的增幅為50%。 我們開創的加速計算方法針對特定的算法領域;添加專門的處理器來替代CPU;吸引各個行業的開發人員優化我們的架構,並加速自己的應用。我們致力於整個算法、求解器和應用程序棧,消除所有瓶頸,實現光速。 這就是Volta能為人工智能工作負載提供驚人加速的真正原因。它比當前NVIDIA GPU架構Pascal的性能提升了5倍,達到峰值萬億次浮點運算,優於兩年前推出的Maxwell架構15倍,遠遠超過摩爾定律的預測。 加速人工智能的各種方法 ![]() 圍繞人工智能革命已形成一個龐大的生態系統。 性能的長足進展吸引了各個行業的創新者,過去一年,GPU驅動的人工智能服務創業公司數量增加了4倍多,達到1300家。 沒人想錯過下一個技術突破。Marc Andreessen認為,這是一個軟件為王的世界,但人工智能正在主導軟件。 在過去兩年裡,基於GitHub開放源代碼軟件庫支持領先人工智能架構的軟件開發人員已從不足5000人增至75,000多人。 ![]() 最新架構可以利用Volta的性能顯著縮短訓練時間,提高多節點訓練性能。 深度學習是各大科技公司的戰略重點。它越來越多地滲透到基礎構架、工具、產品製造等各個方面。我們與各個架構製造商傾力合作,力求性能盡善盡美。通過優化GPU的每個架構,我們可以將訓練一個模型所需的數百次迭代縮短至數小時或數天,從而提高工程師的工作效率。Caffe2、Chainer、Microsoft Cognitive Toolkit、MXNet、PyTorch、TensorFlow等網絡都將針對Volta得到精心優化。 ![]() 我們希望營造出一種大環境,以幫助開發人員隨時隨地在任何架構內完成工作。對於希望內部保管數據的企業,我們在GPU技術大會期間特意推出了功能強大的新型工作站和服務器。 眼下,價值2470億美元的公共雲服務市場也許最具活力。阿里巴巴、亞馬遜、百度、Facebook、谷歌、IBM、微軟和騰訊都已在各自的公有云採用了NVIDIA GPU。 為幫助創新者無縫遷移到雲服務,我們在此次GPU技術大會上推出了NVIDIA GPU Cloud雲平台,該平台包含每個架構的預配置和優化棧註冊表。每一層軟件和所有組合都已經過調整、測試和打包,並整體放入NVDocker容器內。我們將不斷加強和維護該平台,修復每一個錯誤;而現在,一切運行良好。 自動化機器的“寒武紀大爆炸” 深度學習的原始數據檢測功能為自動化機器——具有人工智能的物聯網的“寒武紀大爆炸”創造了條件。未來將有數十億,甚至數万億設備由人工智能所驅動。 我們在GPU技術大會上宣布,世界十大公司之一、備受矚目的豐田汽車公司現已與NVIDIA攜手合作開發無人駕駛汽車。 我們還推出了促進機器人製造的虛擬機器人Isaac。今天的機器人都是手動編程,只能按照編程操作。例如,卷積神經網絡為我們提供了解決無人駕駛所需的計算機視覺突破,加強學習和模擬學習可能是我們必須攻克的機器人技術難題。 ![]() 在GPU技術大會上推出的Isaac將強化機器人學習和模擬學習。 經過訓練後,機器人的大腦將下載到我們的人工智能超級計算機Jetson中。機器人可以承受和適應虛擬和現實世界之間的任何差異。新一代機器人誕生了。Isaac在GPU技術大會上演示瞭如何學會打冰球和高爾夫球。 最後,我們正在實現深度學習加速器(DLA)的開源化——它是NVIDIA版本的專職推理TPU,專為人工智能汽車Xavier超級芯片而打造。我們希望人工智能以最快的速度遍地開花。其他人不再需要投資開發推理式TPU,它將由我們全球最好的芯片設計師設計並免費提供。 助力當今時代的愛因斯坦和達·芬奇 以上種種只是NVIDIA GPU計算如何成為我們這個時代中愛因斯坦和達·芬奇基本工具的最新示例。對於他們來說,我們的發明不亞於一台時間機器。基於3D圖形無盡的技術需求和遊戲市場規模,NVIDIA已經將GPU發展為計算機大腦,在虛擬現實與人工智能激動人心的交匯點開啟創新的大門。 ------------------------------------------ 鴻鵠國際股份有限公司 1.我們協助人工智能底層設備的搭建、規劃、及交付。熟悉各類型深度學習可運行的技術設備。 2.我們交付的每一款設備,都是深度學習框架預安裝的環境,可讓使用者減少摸索時間,並且快速上手。 3.Caffe2、Chainer、Microsoft Cognitive Toolkit、MXNet、PyTorch、TensorFlow等預安裝以及優化服務。 4.我們提供python、TensorFlow、DIGITS、CUDA等初級以及進階課程。 5.我們具備數學博士級人才,協助用戶做訓練優化以及使用深度學習的直接應用。 鴻鵠國際股份有限公司 我們從事基礎人工智能技術的開發工作。所有技術,從語音識別到計算機視覺、自然語言處理、數據倉庫、用戶理解,我們用人工智能技術支持很多國際業務並孵化新業務方向。 業務窗口 蔡先生 行動電話:0910-218-322 公司電話:02-2929-9388 #10 公司傳真:02-2929-7579 Email: sales1@honghutech.com |
DGX Station與TESLA V100熱烈預購中
預計應該是Q3可以上市,針對DGX Station,這是一台非常適合放在辦公室環境的深度學習訓練設備。 ![]() 產品概覽: GROUNDBREAKING AI, AT YOUR DESK 唯一專為辦公室量身打造的超級電腦 深度學習讓您最快行動 讓生產力從桌面延伸到資料中心 比最快的工作站快 3 倍
我們從事基礎人工智能技術的開發工作。所有技術,從語音識別到計算機視覺、自然語言處理、數據倉庫、用戶理解,我們用人工智能技術支持很多國際業務並孵化新業務方向。 業務窗口 蔡先生 |
機器學習零基礎?手把手教你用TensorFlow搭建圖像識別系統(一)
導語:這是Wolfgang Beyer的一篇博文,詳細介紹瞭如何使用TensorFlow搭建一個簡單的圖像識別系統。本篇主要介紹圖像識別和本試驗中會遇到的一些概念。 原文: http://www.wolfib.com/Image-Recognition-Intro-Part-1/
如果你覺得這是一篇簡單介紹人工智能、機器學習和深度學習的文章,那就錯啦。你可以在網上搜羅到一大堆相關話題的文章,而這篇文章也並不是討論人工智能是否會奴役人類或搶走人們飯碗之類的話題,畢竟相關的各種推論和謠言已經滿天飛了。
這只是一篇詳細描述如何開始搭建一個機器學習系統,並讓它可以識別所看到圖像的文章。
作者Wolfgang Beyer目前現在正在學習人工智能和機器學習的內容。他認為最好的學習方式不是僅僅閱讀各類材料,而是要真正地去動手搭建一個系統。這就是我們翻譯本文的目的,也是作者要向你介紹的。在這篇文章中Beyer將向你展示如何搭建一個系統,去完成一項簡單的計算機視覺任務:識別圖像內容。
Beyer強調,他並不是一個專家。“我正在學習,而且還有很多東西需要學習。我只是簡單介紹我正在做的事情。如果這對你能有所幫助,或者你也覺得很有趣,就已經很好了。如果你發現了錯誤或有什麼改進建議也請告訴我,你的回復對我也很重要。”
閱讀本文前你並不需要具備機器學習的相關經驗。示例代碼是使用Python寫的,如果你有Python的基礎知識是最好的。但如果你只是掌握其他的編程語言,那也已經足夠了。由於篇幅限制,本系列將分四篇文章發布
為什麼讓機器學會圖像識別?
在我們甚至都不知道自己怎麼看到東西的情況下,怎麼讓計算機去做到這樣的事情呢?這就是機器學習要研究的事情。我們採取的方法是讓計算機自己去完成這樣的過程,而不是手把手地一步步教會計算機如何解釋圖像並翻譯成計算機程序。我們給計算機提供總體結構,讓計算機從經驗中學習,就像我們人類做的那樣。
但是,在我們開始構想計算機視覺的整體方案之前,讓我們把這個任務簡化為一個容易掌握的小目標。
圖像分類和CIFAR-10數據集
我們嘗試解決一個盡可能小而簡單的問題,另外也不要期望它能瞬間讓我們成為機器學習大師。我們希望計算機能做的包括以下方面:當我們向計算機展示一幅圖片(特定尺寸)時,它能夠對圖片進行分析並打上標籤。他可以從固定數量的標籤中進行選擇,每一類的標籤描述了一種圖像的內容。我們的目標就是這個模型能夠盡可能地挑選出正確的標籤。這個任務被稱作圖像分類。
我們將使用標準的CIFAR-10數據集。CIFAR-10包含了60000幅圖片。它有10個不同的分類,每類包含6000幅圖片。每幅圖片的規格是32x32像素。這麼小尺寸的圖片對我們人類來說有時很難進行正確的分類,但它卻簡化了計算機模型的任務,並降低了分析圖片的計算負載。
CIFAR-10數據集中10個分類中的隨機圖片。由於分辨率低,人類很難進行正確的標籤。
我們將圖片轉化為一連串的數字輸送給計算模型。每個像素由代表紅色,綠色和藍色的三個浮點數來表示。其結果就是32x32x3=3072個值。
除了CIFAR-10,還有很多其他的圖像數據集可以用於計算機視覺的研究。之所以使用標準數據集,有兩個目的:
第一,要收集這麼多的圖片是一項巨大的工作。你需要有大量的圖片資源,並根據需要對他們進行分別標籤。 第二,使用相同的數據集,可以讓我們有目的地比較不同方法的優劣。 另外,使用標準數據集,可以相互比較,在競賽中排出名次。最有名的比賽是Image-Net圖像識別大賽,它需要對1000個不同的種類進行識別。2012年的勝者是來自多倫多大學(University of Toronto)的亞力克斯•克利則夫斯基(AlexKrizhevsky),伊利亞·蘇特斯科娃(Ilya Sutskever)和傑夫·辛頓(Geoffrey Hinton )設計的算法(雷鋒網注:可點擊論文鏈接查看)。這個系統領跑整個比賽並且以巨大的優勢獲勝。
這次比賽對整個研究領域產生了巨大的衝擊,因為這是第一次使用卷積神經網絡的方法獲得勝利。卷積神經網絡是一種人工神經網絡,它大致模擬了動物視覺的皮質行為。這一技術的應用已經有一段時間,但它的潛力還沒被多數人認識到。2012 Image-Net競賽后,這種情況出現了改變。人們突然對神經網絡和深度學習(深度學習是使用多層神經網絡的方法解決機器學習的問題)產生了巨大興趣,而這次賽事也極大地推動了以後幾年深度學習的快速發展。
監督學習
我們怎麼使用圖像數據集讓計算機自己學習呢?即使計算機自己能夠學習,我們也需要告訴它學習什麼和怎樣學習。所以,我們需要通過制定一個大致的流程讓計算機能夠對圖像進行評估。
我們定義一個通用的數學模型,將輸入圖像轉換為輸出標籤。這個模型的實際輸出不僅僅依賴於圖像本身,還依賴模型內建的參數。這些參數並不是由我們提供,而是由計算機通過學習獲得。
這樣一來,這個過程可以被理解為一個優化問題。我們初始定義一個模型並提供初始的參數值。然後再向模型輸入圖像數據集和已知的正確標籤。這就是訓練的過程。在這個階段模型重複校驗,訓練數據,持續調整參數值。目標是找到合適的參數使模型輸出盡可能多的正確結果。這種同時使用輸入數據和正確結果的訓練方法叫做監督學習。還有一種叫做非監督學習,這種學習中只使用了輸入數據而沒有標籤,但在這篇文章中我們不做討論。
當訓練完成,模型參數被固定下來,並可以被用於圖像集以外的圖像分類。
在訓練期間,模型的預測結果與真實值進行比較。這些信息被用於更新參數值。在測試過程中就不再有反饋,模型只是產生標籤。
TensorFlow
TensorFlow是機器學習的開源軟件庫,它由Google在2015年發布並很快成為全世界的研究者和學習者中最流行的機器學習庫之一。它在圖像分類模型中承擔重要作用。
接下來,我們就要開始學習如何用TensorFlow搭建一個合適的模型。
建立模型,一個Softmax分類器
Github支持這個模型的完整代碼。在使用之前,你需要安裝以下軟件:
· Python(代碼經過了Python2.7測試,Python3.3+也應該可以工作,安裝鏈接) · TensorFlow(安裝指導鏈接) · CIFAR-10數據集:下載Python版本的數據集 從https://www.cs.toronto.edu/~kriz/cifar.html 下載或者使用鏈接中的壓縮文檔。請把cifar-10-batches-py解壓到python源代碼的目錄下,這樣圖像的路徑應該為/ Path -to-your-python-source-code-files/cifar-10-batches-py/。
好了,現在我們可以開始了。讓我們先來看看試驗的主文件softmax.py,一行一行地來分析:
from __future__ import absolute_import from __future__ import division from __future__ import print_function
import numpy as np import tensorflow as tf import time import data_helpers 根據TensorFlow代碼規範,在所有TensorFlowPython文件中為了Python2和3的兼容性,都應該添加future語句。然後導入TensorFlow,numpy用於數值計算和時間模塊。data_helper.py包括加載和準備數據集的函數。
beginTime = time.time() #Parameter definitions
batch_size = 100 learning_rate = 0.005 max_steps = 1000
# Prepare data data_sets = data_helpers.load_data() 我們啟動一個計時器測量運行時間和定義一些參數。稍後在實際使用它們時再進行討論。然後加載CIFAR-10數據集。因為讀取數據並不是我們要做的核心,我把這部分的函數單獨放在data_helper.py文件中。它只是負責讀取包含數據集的文件,並把數據放入一個方便我們操作的數據結構中。
需要提到的重要的一點是,load_data()是將60000幅圖像分為兩部分。大的一部分包含50000幅圖像。這些數據集用於訓練我們的模型。另外的10000幅圖像被稱作測試集。在訓練結束之前,我們的模型將不會看到這些圖像。直到模型中的參數不再變換,我們使用測試集作為模型輸入來檢驗模型的性能。
將數據分為訓練集和測試集非常重要。我們並不知道我們的模型在遇到訓練數據集或測試數據集的時候是否有相同的表現。最糟的情況在於,模型記錄下了它看過的所有圖像。如果我們使用相同的訓練集進行測試,模型通過查找存儲下來的正確答案,可能表現得非常完美。但是如果使用它從未見過的圖像則原形畢露。這在模型學習中有個專門的概念叫做過度擬合,就是說特定的訓練數據可能掩蓋一些更為通常的特徵。在機器學習中避免過度擬合是一項重大的課題。關於過度擬合和為什麼建議將數據分成2個或者3個數據集,可以參考Coursera上吳恩達(Andrew Ng)機器學習課程的節選視頻。https://www.coursera.org/learn/machine-learning
回到我們的代碼,load_data()返回一個dictionary類型數據:
images_train:訓練集轉換為50000x3072(32像素x32像素x3個顏色通道)的數組
labels_train:訓練集的50000個標籤(每個數字從0到9代表圖像訓練集的10個分類)
images_test:測試集(10000x3072)
labels_test:測試集的10000個標籤
classes:10個文本標籤,將數字轉換成文字(0代表“飛機”,1代表“車”,等等)
# Define input placeholders images_placeholder =tf.placeholder(tf.float32, shape=[None, 3072]) labels_placeholder =tf.placeholder(tf.int64, shape=[None]) 做好了這些工作後,我們在下篇將帶大家開始建立這個模型。 來源: http://www.wolfib.com/Image-Recognition-Intro-Part-1/
|
任何階段的學習者都適用的參考:機器學習領域書目全集
來自Swinburne 科技大學的JasonBrownlee 博士為我們帶來了最新一期的機器學習書目,內容覆蓋科普、各級教材以及不同編程語言的機器學習應用。
原文來源:來源:http://machinelearningmastery.com/machine-learning-books/
學習是一種理性的投資,每當花費十幾個小時讀完一本書,你就能領略到前人數年積累的經驗。
在閱讀了市面上大多數機器學習書籍後,作者列出了最新機器學習領域推薦圖書,並使用了使用不同分類方式進行了整理: 按類型:教科書,熱門學科等; 按主題:Python,深度學習等; 按出版商:Packt,O'Reilly 等; ……
如何使用 1. 找到你最感興趣的分類方式,找到需要的主題; 2. 在你選擇的主題中挑選; 3. 購買圖書; 4. 從頭到尾閱讀; 5. 繼續找下一本。
擁有一本書和了解它的內容是完全不同的兩種概念——你必須真正閱讀它們。 請先問問自己:你有沒有讀完過一本機器學習的書?
機器學習圖書——按類型分 最流行機器學習科普圖書 以下圖書適用於大多數讀者。它們點到了機器學習和數據科學的精華之處,卻沒有使用枯燥的理論或應用細節。這份書單也包括了一些流行的「統計思想」科普書籍。
The Master Algorithm: How the Quest for theUltimate Learning Machine Will Remake Our World 地址:http://www.amazon.com/dp/0465065708?tag=inspiredalgor-20 Predictive Analytics: The Power to PredictWho Will Click, Buy, Lie, or Die 地址:http://www.amazon.com/dp/1119145678?tag=inspiredalgor-20 The Signal and the Noise: Why So ManyPredictions Fail–but Some Don't 地址:http://www.amazon.com/dp/0143125087?tag=inspiredalgor-20 Naked Statistics: Stripping the Dread fromthe Data 地址:http://www.amazon.com/dp/039334777X?tag=inspiredalgor-20 The Drunkard's Walk: How Randomness RulesOur Lives 地址:http://www.amazon.com/dp/0307275175?tag=inspiredalgor-20
其中最值得推薦的一本是:《The Signal and the Noise》。 適用於機器學習初學者的書籍 以下列出最適用於初學者的書籍。希望入門的讀者同時也需要參考科普圖書(上一條)以及行業應用圖書(下一條)。 Data Science for Business: What You Need toKnow about Data Mining and Data-Analytic Thinking 地址:http://www.amazon.com/dp/1449361323?tag=inspiredalgor-20 Data Smart: Using Data Science to TransformInformation into Insight 地址:http://www.amazon.com/dp/111866146X?tag=inspiredalgor-20 Data Mining: Practical Machine LearningTools and Techniques 地址:http://www.amazon.com/dp/0128042915?tag=inspiredalgor-20 Doing Data Science: Straight Talk from theFrontline 地址:http://www.amazon.com/dp/1449358659?tag=inspiredalgor-20
在這其中最重要的一本是:《Data Mining: PracticalMachine Learning Tools and Techniques》。 機器學習入門書籍——高級 以下是適用於希望入門機器學習的本科學生和開發者的書籍,內容包含了機器學習的很多話題,注重如何解決問題,而不是介紹理論。 Machine Learning for Hackers: Case Studiesand Algorithms to Get You Started 地址:http://www.amazon.com/dp/B007A0BNP4?tag=inspiredalgor-20 Machine Learning in Action 地址:http://www.amazon.com/dp/1617290181?tag=inspiredalgor-20 Programming Collective Intelligence:Building Smart Web 2.0 Applications 地址:http://www.amazon.com/dp/0596529325?tag=inspiredalgor-20 An Introduction to Statistical Learning:with Applications in R 地址:http://www.amazon.com/dp/1461471370?tag=inspiredalgor-20 Applied Predictive Modeling 地址:http://www.amazon.com/dp/1461468485?tag=inspiredalgor-20
其中最值得推薦的一本是:《An Introduction toStatistical Learning: with Applications in R》 機器學習教材 以下列出了機器學習領域目前最流行的教科書。它們會在研究生課程中出現,包含方法與理論的解讀。 The Elements of Statistical Learning: DataMining, Inference, and Prediction 地址:http://www.amazon.com/dp/0387848576?tag=inspiredalgor-20 Pattern Recognition and Machine Learning 地址:http://www.amazon.com/dp/0387310738?tag=inspiredalgor-20 Machine Learning: A ProbabilisticPerspective 地址:http://www.amazon.com/dp/0262018020?tag=inspiredalgor-20 Learning From Data 地址:http://www.amazon.com/dp/B00YDJC98K?tag=inspiredalgor-20 Machine Learning 地址:http://www.amazon.com/dp/0070428077?tag=inspiredalgor-20 Machine Learning: The Art and Science ofAlgorithms that Make Sense of Data 地址:http://www.amazon.com/dp/1107422221?tag=inspiredalgor-20 Foundations of Machine Learning 地址:http://www.amazon.com/dp/026201825X?tag=inspiredalgor-20
其中的重點是:《The Elements of StatisticalLearning: Data Mining, Inference, and Prediction》 機器學習圖書——按主題分 有關R 語言在機器學習中如何應用的圖書。 The Elements of Statistical Learning: DataMining, Inference, and Prediction 地址:http://www.amazon.com/dp/0387848576?tag=inspiredalgor-20 Pattern Recognition and Machine Learning 地址:http://www.amazon.com/dp/0387310738?tag=inspiredalgor-20 Machine Learning: A ProbabilisticPerspective 地址:http://www.amazon.com/dp/0262018020?tag=inspiredalgor-20 Learning From Data 地址:http://www.amazon.com/dp/B00YDJC98K?tag=inspiredalgor-20 Machine Learning 地址:http://www.amazon.com/dp/0070428077?tag=inspiredalgor-20 Machine Learning: The Art and Science ofAlgorithms that Make Sense of Data 地址:http://www.amazon.com/dp/1107422221?tag=inspiredalgor-20 Foundations of Machine Learning 地址:http://www.amazon.com/dp/026201825X?tag=inspiredalgor-20 這方面的首選圖書是:《The Elements of StatisticalLearning: Data Mining, Inference, and Prediction》。 Python 機器學習 以下列出Python 機器學習熱門書籍 Python Machine Learning 地址:http://www.amazon.com/dp/1783555130?tag=inspiredalgor-20 Data Science from Scratch: First Principleswith Python 地址:http://www.amazon.com/dp/149190142X?tag=inspiredalgor-20 Hands-On Machine Learning with Scikit-Learnand TensorFlow: Concepts, Tools, and Techniques for Building IntelligentSystems 地址:http://www.amazon.com/dp/1491962291?tag=inspiredalgor-20 Introduction to Machine Learning withPython: A Guide for Data Scientists 地址:http://www.amazon.com/dp/1449369413?tag=inspiredalgor-20 Vital Introduction to Machine Learning withPython: Best Practices to Improve and Optimize Machine Learning Systems andAlgorithms 地址:http://www.amazon.com/dp/B01N4FUDSE?tag=inspiredalgor-20 Machine Learning in Python: EssentialTechniques for Predictive Analysis 地址:http://www.amazon.com/dp/1118961749?tag=inspiredalgor-20 Python Data Science Handbook: EssentialTools for Working with Data 地址:http://www.amazon.com/dp/1491912057?tag=inspiredalgor-20 Introducing Data Science: Big Data, MachineLearning, and more, using Python tools 地址:http://www.amazon.com/dp/1633430030?tag=inspiredalgor-20 Real-World Machine Learning 地址:http://www.amazon.com/dp/1617291927?tag=inspiredalgor-20
最值得注意的當然是《Python 機器學習》了。 深度學習 注意:深度學習的圖書目前還比較稀缺,以下這份列表只能保證數量,而不是質量。 Deep Learning 地址:http://www.amazon.com/dp/0262035618?tag=inspiredalgor-20 Deep Learning: A Practitioner's Approach 地址:http://www.amazon.com/dp/1491914254?tag=inspiredalgor-20 Fundamentals of Deep Learning: DesigningNext-Generation Machine Intelligence Algorithms 地址:http://www.amazon.com/dp/1491925612?tag=inspiredalgor-20 Learning TensorFlow: A guide to buildingdeep learning systems 地址:http://www.amazon.com/dp/1491978511?tag=inspiredalgor-20 Machine Learning with TensorFlow 地址:http://www.amazon.com/dp/1617293873?tag=inspiredalgor-20 TensorFlow Machine Learning Cookbook 地址:http://www.amazon.com/dp/1786462168?tag=inspiredalgor-20 Getting Started with TensorFlow 地址:http://www.amazon.com/dp/1786468573?tag=inspiredalgor-20 TensorFlow for Machine Intelligence: A Hands-OnIntroduction to Learning Algorithms 地址:http://www.amazon.com/dp/1939902452?tag=inspiredalgor-20
其中最重要的一本書當然是:Yoshua Bengio 和Ian Goodfellow 所著的《Deep Learning》。 時序序列預測 目前時序序列預測在實際應用中主要是由R 語言的平台所主導。 Time Series Analysis: Forecasting andControl 地址:http://www.amazon.com/dp/1118675029?tag=inspiredalgor-20 Practical Time Series Forecasting with R: AHands-On Guide 地址:http://www.amazon.com/dp/0997847913?tag=inspiredalgor-20 Introduction to Time Series and Forecasting 地址:http://www.amazon.com/dp/3319298526?tag=inspiredalgor-20 Forecasting:principlesand practice 地址:http://www.amazon.com/dp/0987507109?tag=inspiredalgor-20
最優質的入門介紹書籍是Forecasting:principles and practice。 時序序列最優質的教科書是Time Series Analysis:Forecasting and Control。 機器學習圖書——按照出版商分類 目前活躍在機器學習領域的出版商主要有: O'Reilly, Manning 和Packt。它們出版了數量可觀的相關圖書,但質量良莠不齊,從精心設計和編纂的到蒐集科技博客內容整合到一起的都有。 O'Reilly 的機器學習書籍 O'Reilly 的「data」標籤下有一百本書,其中大部分都是與機器學習相關的,以下是一些最暢銷的書籍。 Programming Collective Intelligence:Building Smart Web 2.0 Applications 地址:http://www.amazon.com/dp/0596529325?tag=inspiredalgor-20 Introduction to Machine Learning withPython: A Guide for Data Scientists 地址:http://www.amazon.com/dp/1449369413?tag=inspiredalgor-20 Deep Learning: A Practitioner's Approach 地址:http://www.amazon.com/dp/1491914254?tag=inspiredalgor-20 Fundamentals of Deep Learning: DesigningNext-Generation Machine Intelligence Algorithms 地址:http://www.amazon.com/dp/1491925612?tag=inspiredalgor-20 Data Science from Scratch: First Principleswith Python 地址:http://www.amazon.com/dp/149190142X?tag=inspiredalgor-20 Python Data Science Handbook: EssentialTools for Working with Data 地址:http://www.amazon.com/dp/1491912057?tag=inspiredalgor-20 Programming Collective Intelligence:Building Smart Web 2.0 Applications 這本書代表了機器學習火熱的開始而且已經流行了很長一段時間。 相關鏈接 O'Reilly 的數據門戶 地址:https://www.oreilly.com/topics/data O'Reilly 的數據產品 地址:http://shop.oreilly.com/category/browse-subjects/data.do 機器學習初學者工具包:依據數據模式的自動化分析 地址:http://shop.oreilly.com/category/get/machine-learning-kit.do 曼寧機器學習書籍 曼寧的書總是很實用且質量很高,但他們沒有類似O'Reilly 和Packt 列出的機器學習100 本書籍的清單。 Machine Learning Action 地址:http://www.amazon.com/dp/1617290181?tag=inspiredalgor-20 Real-World Machine Learning 地址:http://www.amazon.com/dp/1617291927?tag=inspiredalgor-20 Introducing Data Science:Big Data, Machine Learning, and more, using Python tools 地址:http://www.amazon.com/dp/1633430030?tag=inspiredalgor-20 Practical Data Science with R 地址:http://www.amazon.com/dp/1617291560?tag=inspiredalgor-20 相關鏈接 曼寧數據科學書籍 地址:https://www.manning.com/catalog#section-68 曼寧機器學習書籍 地址:https://www.manning.com/catalog#section-73 Packt 的機器學習書籍 似乎Packt 上有所有的數據科學和機器學習的書籍。Packt 有一個大範圍的書籍庫,庫裡的書是機器學習方面比較深奧的書籍。同時也有一些當下很流行的機器學習主題的書如R 語言和Python。 下面是一些比較流行的書籍。 Machine Learning with R 地址:http://www.amazon.com/dp/1784393908?tag=inspiredalgor-20 Python Machine Learning 地址:http://www.amazon.com/dp/1783555130?tag=inspiredalgor-20 Practical Machine Learning 地址:http://www.amazon.com/dp/178439968X?tag=inspiredalgor-20 Machine Learning in Java 地址:http://www.amazon.com/dp/1784396583?tag=inspiredalgor-20 Mastering .NET Machine Learning 地址:http://www.amazon.com/dp/1785888404?tag=inspiredalgor-20 其他資源 以下資源是我用來完成本書目所參考的資料,同時也可能是對大家有用的機器學習的額外書單。 亞馬遜機器學習最暢銷書 很棒的機器學習書籍 鏈接:https://github.com/josephmisiti/awesome-machine-learning/blob/master/books.md 我是怎樣學習機器學習的?Quora 上的回答百科 鏈接:https://www.quora.com/How-do-I-learn-machine-learning-1 Reddit 的機器學習常見問題與回答 鏈接:https://www.reddit.com/r/MachineLearning/wiki/index 以上就是目前最為完整的機器學習書目,你讀過其中的哪幾本?歡迎與大家分享自己的看法。
來源:http://machinelearningmastery.com/machine-learning-books/
台灣最大人工智能、深度學習與GPU議題社團,採實名制,歡迎申請加入 https://www.facebook.com/groups/marketing.gpu |
MIT用GPU處理可視化數據庫,速度較CPU提升100倍
導語:一種全新的分析型數據庫和可視化管理平台:MapD
作為電子計算機系統中一個非常重要的協處理器,GPU從1990年代第一次出現以來,就一直在專職負責圖形渲染和處理的相關工作。然而隨著時間的推移,技術和需求的不斷變化,GPU已經逐漸走出了這種定位。特別是近幾年,憑藉突出的並行運算能力和高性能的內存使用效率,GPU已經被廣泛應用於高級實驗室仿真和深度學習編程等諸多的需要高強度運算的非圖形處理領域。
MIT計算機科學和人工智能實驗室(CSAIL)的前任研究員Todd Mostak就將GPU應用在了數據庫領域。他將傳統數據庫管理系統中的運算核心——CPU替換為GPU,研發出了一種全新的分析型數據庫和一個基於地理位置可視化的數據管理平台,名為MapD。
據Todd Mostak介紹,MapD一共有兩大特點。一是運算速度快:MapD可以在1毫秒的時間內處理數以億計的數據點(datapoints),相比傳統的數據庫管理系統快了100倍。二是可視化:正如名稱裡“Map”(地圖)所表達的,MapD可以實時地將所有處理過的數據點以地理信息圖表的方式展現出來,例如在世界地圖上標記出當前的Twitter話題活躍度(如下圖所示,這裡是MapD系統一個名為Tweetmap 的實現樣例)。
自從去年3月份發布第一個商用版本以來,MapD以GPU高速管理數據庫的方式已被各行業的用戶廣泛接受,目前包括Verizon等美國電信巨頭,以及媒體、財經和廣告業的各大公司都是MapD的忠實用戶。甚至在今年10月,專門為美國中央情報局(CIA)服務的風險投資公司In-Q-Tel也投資了MapD,宣稱他們需要MapD為美國情報系統研發具有特定數據處理能力的版本。
Todd Mostak表示:“CIA掌握著大量的地理空間數據,他們需要對這些數據進行有效的組織、可視化以及實時查詢。對於情報系統來說,這幾乎是一種剛需。”
將GPU作為真正的處理核心
一般來說,GPU是專為並行計算而設計的專用協處理器,通常其內部都集成了數千個高速運算核心,可以並行處理計算機屏幕上每個像素點的單獨顯色以渲染整個圖像。並且,由於GPU通常都可以直接搭配高帶寬存儲器協同工作,因此通常都比使用一般RAM的CPU的運算速度快一個數量級。
目前,雖然一些數據庫已經使用了GPU,但他們普遍存在一個重要的設計缺陷。Todd Mostak表示:“目前大部分的數據庫管理方案都是將數據庫存儲在CPU一側,當接到用戶的數據請求時,再將數據搬移到GPU一側進行處理,然後再將處理結果移回CPU進行存儲。也就是說,GPU並非真正的系統核心。這種機制決定了:即使你通過GPU加快了數據處理速度,但把處理結果搬回CPU的過程仍然浪費了太多時間。”
與此不同的是,Todd Mostak將GPU作為了MapD系統的真正核心。MapD並沒有像傳統系統那樣將數據全部存儲在CPU一側,而是利用高速緩存機制將盡量多的數據直接存儲在多內核協同工作的GPU一側,這樣一來就避免了數據搬移過程中浪費的大量時間,大大提升了運算效率。
在MapD系統中,每個GPU都有自己的緩衝池,即利用高速緩存機制將最常訪問的數據直接存儲在GPU一側,而不再是硬盤。這樣一來,在數據庫需要反複查詢同一個數據點時(這種場景在實際應用中非常常見),MapD就可以直接從GPU一側的高帶寬存儲器中直接訪問數據,而不是從CPU或硬盤。
Todd Mostak表示,通過這種機制,MapD可以提供相比傳統數據庫管理系統快兩到三個數量級的性能。
強大的數據處理能力
MapD曾分析過一個被認為是大規模數據分析能力基準測試的龐大數據集合,即高達12億條數據記錄的紐約市出租車數據集。通過一家第三方測試機構的測試,MapD的運行速度比許多先進的CPU數據庫管理系統快74倍,許多數據查詢任務甚至能夠在毫秒內完成。(如上圖所示為紐約市出租車數據集合的分析截圖)
在其他示例中,MapD的表現也同樣出色。例如,通過“Tweetmap”,用戶可以搜索所有Twitter上的熱門話題,並查看這些話題在世界各地實時的地理位置分佈。在另一幅美國地圖中,用戶還可以通過MapD查看2001年以來美國所有的政治捐款,並以不同顏色標明不同的政黨(例如紅色代表共和黨,藍色代表民主黨)。
總體上說,不同行業的客戶對MapD系統的具體需求也不同,但本質都是通過其高速的數據處理能力和基於地理位置的展示能力協助他們做出合理的商業決策。例如金融服務機構和對沖基金可以通過該系統來監控欺詐行為和做出投資決策;廣告代理商們可以通過該系統來評估客戶們對各種廣告的不同反饋; 社交媒體公司則可以通過該系統追踪全球用戶的使用情況。
美國電信巨頭Verizon也是MapD的用戶之一,他們每週都會利用MapD系統對8500萬用戶更換SIM卡的行為展開分析。此前在使用傳統的數據庫管理系統時,這種分析通常要耗費好幾個小時,因為效率太低,因此只能好幾個月分析一次。近期,Verizon就通過MapD系統的每週分析報告發現了一個隱藏多年的Bug,這一Bug導致每年有上百萬次無意義的SIM卡更換,不但大大浪費了服務資源,更造成了用戶的反感。
Todd Mostak說:“MapD這次可幫Verizon省了一大筆錢,但更重要的在於用戶體驗的提升,因為通常來說,頻繁地更換SIM卡畢竟不是什麼值得高興的事。”
從論文寫作到MapD
研發MapD系統的最初想法來自於2012年,那時Todd Mostak正在哈佛大學寫他的政治學碩士論文,過程中需要查詢大量的歷史資料。
使用以CPU作為處理核心的數據庫系統做這些資料查詢顯然不是一件輕鬆愉快的工作。很多次,Todd Mostak在睡覺之前敲入一個查詢命令,結果第二天醒來發現系統提示參數輸入錯誤,這種酸爽的用戶體驗簡直讓人崩潰。按照Todd Mostak的原話來說就是:“那是一個令人沮喪的經歷。”
恰好,當時Todd Mostak選修了由MIT數據庫研發組教授的CSAIL數據庫課程。當時的授課教師有兩位:一位是數據庫領域的佈道者Michael Stonebraker,他是MIT計算機科學的兼職教授,創立了Postgres、Ingres和Vertica等諸多流行的數據庫系統;另一位是Sam Madden,他是MIT電氣工程和計算機科學的教授,現在是MapD的特聘顧問。
為了加快論文進度,Todd Mostak通過自己在CSAIL數據庫課程中學到的知識,自己研發了一個簡易的數據庫系統,也就是MapD的早期雛形。這一系統當時令CSAIL數據庫課程的導師們印象深刻,當然也大大加快了Todd Mostak的論文進度。2013年,在論文最終順利通過之後,導師們邀請Todd Mostak以研究員的身份加入CSAIL,進一步完善MapD。
在Sam Madden導師的鼓勵下,ToddMostak開始在MIT的工業聯絡計劃(ILP)中公開展示MapD。那時開始有公司找到Todd Mostak,並表示願意出高價購買他的研究成果。Todd Mostak說:“當時,我對他們說這只是一個純粹的學術研究項目。雖然並沒有出售,但這件事開始讓我思考一個更普遍的問題,即如何實時地從大數據中獲取有效信息。”
2014年1月,Todd Mostak正式推出了MapD系統,並加入了ILP計劃中的初創公司社區,在那裡可以與其他眾多MIT附屬的初創公司建立聯繫或者合作,從那時開始Todd Mostak打算把MapD系統與地圖結合起來,以可視化的方式展示信息。
此後,成立於馬薩諸塞州劍橋的MapD開始逐漸步入正軌。2014年3月,MapD在Nvidia舉辦的一場初創公司大數據計算比賽中贏得了10萬美元獎金(現在Nvidia已經成為了MapD的合作夥伴)。當年秋天,MapD又從Nvidia和Google那裡獲得了200萬美元的種子輪融資,2015年又獲得了1000萬美元的A輪融資。
現在,MapD已經在舊金山新總部展開了新一輪的擴張。在越來越多的企業開始通過雲端啟用GPU編程的大趨勢下,MapD希望在舊金山收穫更多的客戶。Todd Mostak表示:“我相信在舊金山我們能收穫更多的用戶,我甚至覺得MapD才剛剛成立。” 來源:http://bangqu.com/gpu/blog/5375 台灣最大人工智能、深度學習與GPU議題社團,採實名制,歡迎申請加入 |
開發者入門必讀:最值得看的十大機器學習公開課
導語:入門機器學習不知道從哪著手?看這篇就夠了。
在當下的機器學習熱潮,人才匱乏十分顯著。截至目前,國內開設人工智能(AI)專業的高校不多,相當多的開發者是跨界入門,需要自學大量知識並摸索。因而優質的學習資源至關重要。因此,我們蒐集了全世界範圍內最受歡迎的機器學習課程,整理成這份“機器學習十大入門公開課”盤點,集中呈現給各位。這份推薦榜頗費心血,綜合考慮了難易、側重點、時效性等諸多因素,希望能幫助大家找到最適合自己的學習資源。
這些課程全部免費開放,但有些需翻牆,有的缺少中文字幕。
1. 吳恩達“機器學習”公開課 課程名稱:機器學習Machine Learning 主講人:吳恩達Andrew Ng 授課機構:斯坦福大學 發布平台:Coursera 語言:英語,漢語字幕
網址:https://www.coursera.org/learn/machine-learning
無論國內國外,這是最火的機器學習入門課程,沒有之一。無數新手都是通過這門課對機器學習初窺門徑。吳恩達老師用極其清楚直白的語言,對機器學習的幾種主要算法做了初步介紹。
這門課最大的特點,是它側重於概念理解而不是數學。數學推導過程基本被略過,重點放在讓初學者理解這背後的思路。另外,它還十分重視聯繫實際和經驗總結:1.課程中吳恩達老師列舉了許多算法實際應用的例子2.他提到當年他們入門AI時面臨的許多問題,以及處理這些難題的經驗。
課程中代碼教程使用的是Octave/MATLAB,因此不需要會Python、C語言,適合沒有編程基礎的新手。
總結起來,這門課對數學、統計、IT基礎薄弱的童鞋十分友好。其實很多機器學習入門課,都是假定學生已修完這一門,於是重點對其進行補充——講解這門課程中吳恩達老師未涉及、或是涉及不深的話題。因此,對於機器學習“一張白紙”的童鞋,我們強烈推薦從這門課起步,然後選擇其他入門課程進階,以在腦海中建立起更全面的知識體系。另外,Coursera上這門課的論壇十分活躍,不管拋出什麼問題都會有人解答,算是一個額外的好處。
彩蛋:網易公開課上有吳恩達老師在斯坦福授課的實錄視頻。內容比較深入,但時間比較久了,可作為進階姊妹篇。地址:http://open.163.com/special/opencourse/machinelearning.html
2. 加州理工“從數據中學習”
課程名稱:Learning from Data,網易公開課譯名為“加州理工學院公開課:機器學習與數據挖掘”
主講人:Yaser Abu-Mostafa
授課機構:加州理工學院
發布平台:edX(原版),網易公開課
語言:英語,網易有漢語字幕
網址:https://www.edx.org/course/caltechx/caltechx-cs1156x-learning-data-2516 ,edX;
http://open.163.com/special/opencourse/learningfromdata.html,網易。
這同樣是一門機器學習的入門課,但並不簡單。該課程強調數據,是因為機器學習與各領域的大數據處理應用(比如金融、醫療)聯繫十分緊密。這門課內容涵蓋基礎理論、算法和應用,平衡了理論與實踐,既覆蓋數學統計,也包含啟發式的概念理解。
課程結構是這樣的:
什麼是學習?
機器能學習嗎?
怎麼做到?
怎麼做好?
經驗教訓。
不少人評論該課程結構就像講故事,它有助於學習者形成對機器學習概念和模型深度、直覺性的理解。學習者公認它內容非常充實,但對作業模塊的爭議很大:有人認為難度偏高並且缺乏反饋,有人認為它是網上能找到的、最好的機器學習練習。
彩蛋:Yaser Abu-Mostafa 出版了同名著作《Learning From Data》,可作為該課程的教材和補充。
3. Tom Mitchell 機器學習課程
課程名稱:機器學習Machine Learning
主講人:Tom Mitchell
授課機構:卡內基梅隆大學(CMU)
發布平台:CMU 官網
語言:英語
網址:http://www.csNaNu.edu/~tom/10701_sp11/ 這門課是學界人士的最愛,是入門課程之中較全面、高階的一門。課時為15週,遠超大多數機器學習慕課。其覆蓋的話題非常廣,按先後次序包括:代數和概率論,機器學習的基礎工具,概率圖模型,AI,神經網絡,主動學習,增強學習。課程內容和練習十分簡潔明白,概念解釋清楚到位。
Tom Mitchell是AI領域德高望重的老牌宗師,他的《Machine Learning》 (中文版為《計算機科學叢書:機器學習》),是最經典的機器學習教科書之一。但因為時間久遠,涉及的一些概念與今天的開發者並沒有太大關聯,更適合需要了解人工智能來龍去脈的大學師生。這門課程與之類似,能幫助學習者理清機器學習的發展脈絡。它適合計劃進行系統性學習、投入大量時間的人。
對於初學者,建議至少聽完吳恩達的機器學習課程之後,再修這一門。
4. 台大林軒田老師的機器學習基石
課程名稱:機器學習基石
主講人:林軒田
授課機構:台灣大學
發布平台:Coursera
語言:漢語
這是為漢語學子量身定做的入門課,相當於台灣大學機器學習課程前半學期的課,教給大家的是機器學習最核心的知識。林老師是教科書《Learning From Data》的作者之一,是華人機器學習領域年輕有為的青年學者。這門課程十分用心細緻,內容比吳恩達老師的入門課程稍稍充實一些。
林老師表示,針對頂級機器學習公開課全是英語授課的現狀,不少學生反映英語教學有不易吸收之處。因此,借推出這門課程,希望幫助漢語為母語的學生減少入門難度。
針對如何讓學生接受枯燥的算法,林老師說道:
“我們的課程設計中,大家會看到我們把對算法與數學式的推導,以'解決問題'的過程方式呈現。也就是說,我們對算法的介紹是環繞著'為什麼'出發的,當同學們腦中有'為什麼'的時候,就有目標去理解這些算法與數學式的內容了。” 《Learning From Data》也可作為這門課的教科書。學習Yaser Abu-Mostafa的課程有不解之處,可與這門課互相印證。
目前該課程已在Coursera下架,何時重開尚屬未知。好在網易公開課、YouTube倒是有全套視頻,地址是:http://c.open.163.com/coursera/courseIntro.htm?cid=938以及https://www.youtube.com/playlist?list=PLXVfgk9fNX2I7tB6oIINGBmW50rrmFTqf。更多課程資料可從台大官網找到(網頁為英語)http://www.csie.ntu.edu.tw/~htlin/mooc/。
彩蛋:台大2015 年機器學習課程的大綱以及學習資料(PPT):https://www.csie.ntu.edu.tw/~htlin/course/ml15fall/,可作為補充。順便提一句,林老師把台大後半學期的課程開成另一門Coursera 課程“機器學習技巧”,作為進階。目前Coursera 也已撤下。網易公開課地址為http://c.open.163.com/coursera/courseIntro.htm?cid=1664。
5. 谷歌人工智能入門
課程名稱:人工智能入門 Intro to ArtificialIntelligence
主講人:Peter Norvig,Sebastian Thrun
授課機構:谷歌
發布平台:優達學城Udacity
語言:英語,漢語字幕
網址:https://cn.udacity.com/course/intro-to-artificial-intelligence--cs271
該課程久享盛名,是AI 入門最好的公開課之一(注:有人認為可以去掉“之一”)。
嚴格來說,它並不是一門機器學習課程。但其中有一周的主題是機器學習,它還介紹了另外幾個AI主要領域:概率推理、信息檢索、機器人學、自然語言處理等。鑑於學習機器學習的童鞋,幾乎都會對AI這個大學科有興趣—— 這門課程便是探索機器學習周邊與交叉領域的絕好機會。
兩位主講者,Peter Norvig 和Sebastian Thrun,一個是谷歌研究總監,一個是斯坦福著名機器學習教授,均是與吳恩達、Yann Lecun 同級別的頂級AI 專家。
需要強調的是,該課程傾向於介紹AI的實際應用。課程練習廣受好評。
6. UBC 本科生的機器學習課程
課程名稱:面向本科生的機器學習課Machine Learning forUndergraduates
主講人: Nando de Freitas
授課機構:英屬哥倫比亞大學(UBC)
發布平台:Youtube
語言:英語
網址:https://www.youtube.com/playlist?list=PLE6Wd9FR--Ecf_5nCbnSQMHqORpiChfJf Nando de Freitas是機器學習領域非常傑出的學者。他的這門課很適合作為吳恩達老師“機器學習”的進階課程,因為:1. “機器學習”省略掉的一些概念,可以在這門課中找到。2. “機器學習”課不重視數學,而數學是這門課的重點內容。Nando de Freitas對諸如概率論、log likelihood等基礎數學原理做了很好的講解,並以此為基礎介紹更高級的數學、統計概念。
對於機器學習新手,完全略過數學細節是很危險的,這門課會幫助你打下基礎。
但是,它錄製於2012 年,時間也比較久了。因此,雷鋒網特意奉上彩蛋一枚。
彩蛋:Nando de Freitas 2013年轉入牛津大學任教。這是他2014-2015學年在牛津的全套深度學習課程,包括視頻、PPT以及練習:https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/(視頻保存在Youtube,需翻牆)。
7. Yann Lecun 深度學習公開課
課程名稱:深度學習Deep Learning
主講人:Yann Lecun
授課機構:法蘭西學院
發布平台:法蘭西學院官網
語言:法語,英語字幕
網址:https://www.college-de-france.fr/site/en-yann-lecun/course-2016-04-15-11h00.htm Yann Lecun 在2016 年初於法蘭西學院開課,這是其中關於深度學習的8 堂課。當時是用法語授課,後來加入了英文字幕。
作為人工智能領域大牛和Facebook AI實驗室(FAIR)的負責人,Yann Lecun身處業內機器學習研究的最前沿。他曾經公開表示,現有的一些機器學習公開課內容已經有些過時。通過Yann Lecun的課程能了解到近幾年深度學習研究的最新進展。該系列可作為探索深度學習的進階課程。
8.Geoffrey Hinton 深度學習課程
課程名稱:神經網絡用於機器學習Neural Networks For MachineLearning;網易譯名“神經網絡的機器學習”
主講人:Geoffrey Hinton
授課機構:多倫多大學
發布平台:Coursera、網易公開課
語言:英語,漢語字幕
網址:https://www.coursera.org/learn/neural-networks,Coursera;
http://c.open.163.com/coursera/courseIntro.htm?cid=77,網易
深度學習必修課程,講師為該領域的一代宗師Geoffrey Hinton。
這門課程聚焦於神經網絡和深度學習,是深入了解該領域最好的課程之一(注:很多人認為可以去掉“之一”)。
課程官方介紹:
“(你會在這門課)學習人工神經網絡以及它們如何應用於機器學習,比方說語音、物體識別,圖像分割(image segmentation),建模語言、人體運動等等。我們同時強調基礎算法,以及對它們成功應用所需的實用技巧。” 這門課錄製於2013-2013,時效性上不如Yann Lecun 的法蘭西學院公開課,建議兩者結合。另外,它要求微積分、Python 基礎,涉及許多專有名詞,對初學者難度較大,需自己查找相關資料。
9. 哥倫比亞大學的機器學習公開課
課程名稱:機器學習Machine Learning
主講人:John W. Paisley
授課機構:哥倫比亞大學
發布平台:edX
語言:英語
網址:https://www.edx.org/course/machine-learning-columbiax-csmm-102x 在這份大牛雲集的榜單中,該課程的主講者——哥倫比亞大學副教授John Paisley,只是一名相對普通的青年學者。但是,這門課程將於兩天后,也就是2017年1月16日首次開課。這使它成為時下最新的機器學習入門課程。要知道,近一兩年來人工智能和機器學習的發展完全可以用“日新月異”來形容——湧現的新方法、新理論,即便是一流專家也有目不暇接之感。換句換說,三、四年前的課程,可能現在有許多內容已經過時了。
這是Yann LeCun 提醒大家注意學習資源時效性的原因所在。
可惜許多一流的機器學習公開課,距離錄製都有些久了。我們知道一堂公開課背後所耗費的巨大人力。因此,對於部分課程在近兩三年並沒有更新的事實,倒也不能去怪主講者和平台。但這使得比較新、時效性較強的課程格外可貴。
這門課中,學習者會了解到機器學習的算法、模型和方法,以及它們在現實生活中的應用。
由於是首次開課,尚沒有對該課程的反饋。但鑑於哥倫比亞大學的研究、教學實力,課程品質應當值得期待。
10. MIT 進階課程
開發者入門必讀:最值得看的十大機器學習公開課
課程名稱:機器學習Machine Learning
主講人:Tommi Jaakkola
授課機構:麻省理工學院(MIT)
發布平台:MIT Opencourseware
語言:英語
這是一門研究生水平的機器學習課程,難度較高。可惜的是,MIT並沒有提供課程視頻,而是以參考書目和課堂筆記的形式,讓我們得以一窺該課程的內容。小編認為,這些學習資源的價值仍舊不可估量。因為如此,相比常規公開課,它不會耗費過多時間,非常適合有一定基礎的學習者印證自己所學。
小結
這就是我們為您盤點的十大最有價值的機器學習入門公開課。這些課程有淺有深,分別對機器學習不同領域、方面有所側重。各位童鞋可根據自己所需,自行選擇最適合自己的課程。不過,小編必須提醒各位,所有盤點都不可避免得摻雜了主觀因素。雖然我們已盡力按照課程質量與業內人士的評價來製定該推薦榜,但自知無法做到十足的公正客觀。比方說,該榜單傾向於機器學習的“入門”,而非開發者進階;傾向於概念、算法學習,而非實戰技巧(比如Python教程);傾向於把全世界範圍內最好的課程推薦給諸君,而對英語基礎較差的學習者照顧不足。榜單之外尚有許多有價值、適應不同層次人士需求的公開課。因此,我們特意列舉了幾個比較好的系統性機器學習課程以及學習平台,彌補該榜單不足,以供參考。
友情提醒,以下包含收費課程。
系統性課程:
優達學城(Udacity)提供的的“機器學習工程師”納米學位,中文字幕,谷歌、滴滴參與授課,收費。
https://cn.udacity.com/course/machine-learning-engineer-nanodegree--nd009 華盛頓大學的“機器學習專業”系列課程,Coursera 平台,收費,共六門課。
https://www.coursera.org/specializations/machine-learning 約翰·霍普金斯大學的“數據科學專業”系列課程,Coursera 平台,收費,共十門課。
https://www.coursera.org/specializations/jhu-data-science 密歇根大學的“Python 的應用數據科學專業”系列課程,Coursera 平台,收費,共五門課。適合需要學習Python 實戰技巧的機器學習開發者。
https://www.coursera.org/specializations/data-science-python 平台推薦:
國外的Coursera、edX、優達學城(Udacity)、Udemy;國內的網易公開課、七月在線都集中了相對優質的學習資源。當然,英語不錯的童鞋推薦國外學習網站,尤其它們的問答論壇非常有幫助。
對於英語基礎不是那麼好的童鞋,Coursera 和優達學城很重視中國市場,它們的大部分機器學習資源都添加了漢語字幕。對於edX 和可汗學院的部分課程,網易公開課有字幕翻譯。
對於需要在數學、統計方面補課的童鞋,除了以上幾個平台之外,強烈推薦可汗學院KhanAcademy,它的數學課非常有名,連比爾·蓋茨都推薦給他子女,很適合從零起步打基礎。
來源: http://www.leiphone.com/news/201701/0milWCyQO4ZbBvuW.html 台灣最大人工智能、深度學習與GPU議題社團,採實名制,歡迎申請加入 https://www.facebook.com/groups/marketing.gpu |
NVIDIA 連載到第五集的Podcast,你最關心的人工智能進展都在這了
人工智能正在改變著世界的格局,人類的生活方式。在這場時代浪潮下,各大科技巨頭都不敢放鬆一秒,以免被後浪們推下舞台。前不久, NVIDIA推出了“ AI Podcast ”連載節目,希望能夠為眾多AI愛好者及從業者,甚至是不懂專業知識的聽眾講解下人工智能及深度學習的前景及應用。據了解,AI Podcast由長期從事科技新聞工作的Michael Copeland主持,他曾經在著名雜誌社Wired 、Fortune等供職。目前,NVIDIA的AI Podcast一共更新了五集。我們先幫大家簡單地介紹下每集的大概內容,想要了解詳情的讀者可以前往iTunes或者Google Play下載完整節目。
AI Podcast的第一集主要講述了人工智能的基礎概念,進展以及應用前景。第二、三集講了深度學習的現狀,應用及未來前景。4-5集提出了自動駕駛的相關概念,以及人工智能是如何改變城市化進程的。
第一集:人工智能離我們並不遙遠
在 AI Podcast 的第一集,NVIDIA 邀請了該公司在深度學習領域頗有建樹的GPU 運算專家Will Ramey 作為嘉賓,為聽眾們講解了人工智能的一些基礎概念。
AI 離我們的生活並不遙遠,就拿人們每天都在用的搜索引擎來說,這就是AI 在日常生活中應用的一個典型成功案例。從拼音輸入法到收發郵件,叫外賣,人工智能已經滲透到我們生活的多個方面。
此外,很多人都會把機器學習和深度學習的概念弄混,事實上,二者存在非常多且複雜的不同之處。簡單來講,機器學習是人工智能眾多分支的一種,而深度學習則是最初來源於“人工神經網絡”(ANN,Artificial Neural Networks)。深度學習主要依賴於兩點,一是大規模的數據,二是計算能力非常強大的計算引擎,比如GPU 。
至於人工神經網絡,很多人會把這種算法和人工智能等同起來,實際上,人工神經網絡僅僅是人工智能算法的一種,人工智能所包含的範圍比神經網絡要大得多。人工神經網絡的基本組成單位是神經元,這和自然界的神經網絡有些類似。在自然界中,一個個神經元聯結起來,組成了有感知和思維能力的大腦。而在人工神經網絡之中,是通過數學函數來模擬神經元的工作過程。就個人而言,Will Ramey更看重深度學習的未來。深度學習能夠利用海量的數據,幫助人們找出解決各種複雜問題的方案。舉個例子,谷歌DeepMind非常出名的AlphaGo就是利用深度學習網絡(DeepLearning Network)來戰勝人類圍棋大師李世石的。Will Ramey指出,雖然目前人工智能仍然處在嬰兒時期,需要用很久的時間才能達到完全的成熟,但是這項技術勢必對未來智能出行,醫療領域等與人類緊密相關的領域做出巨大貢獻。
第二~三集:深度學習下一步走向何處?
在AI Podcast 的第二、三集,NVIDIA分別邀請了曾經從NVIDIA 出走到百度,如今回到NVIDIA 擔任深度學習(DL)研究部門副總經理的Bryan Catanzaro,以及英偉達工程師Bob Bond 分享他們在深度學習領域所看到的應用及進展。
未來,在強大的GPU幫助下,深度學習能夠利用的數據量將會以指數型上升,這對於該技術的實際應用是重大利好。在深度學習的應用當中,圖像識別是最成功領域之一。在該技術的幫助下,未來的照片共享服務能夠進行複雜的面部識別,這種內置功能每天可供於數億用戶使用。
“我們現在要做到的是,讓計算機能夠更好地識別出圖像上的對象。這個'對象'不僅僅指代的是'人'。”Bryan介紹道。舉個例子,計算機還要學會如何去識別出一隻貓,一隻狗等等。這些都需要搭載更強大的GPU才能夠完成。“通過這種方式的框架,人們可以解決圖像識別的很多問題。但是首先你需要有大量的標籤示例,你必須先有一個已經輸入了大量數據的系統。”Bryan解釋道。
目前,深度學習已經在圖像識別,語音識別,智能搜索,自然語言處理,各項檢測(比如航空,汽車,甚至是安全)等領域取得了突破性的進展,這對學術界和工業界都產生了不可忽視的影響。就拿最近大火的面部識別來講,谷歌和Facebook就正在用深度學習技術來開發相關的程序,並且已經取得了一些成果。
將來,深度學習會在多個設備上彰顯優勢。語音識別將會變得越來越方便。當你說出一句話,馬上就會有接近百分之百精準的文本進行匹配,人們可能不再需要打字就能完成一些書面工作。當然,這需要長時間對機器的反复實驗和訓練,對於現在的深度學習來說,這還是一件有些困難的任務。比如你讓它去識別出由莎士比亞的詩句製成的歌曲,或者是比較複雜難懂的中文,這還是很困難的。(雷鋒網注:中華文化博大精深吶~)
第四~五集:自動駕駛是重塑城市建設的關鍵,但AI能做的更多
在AI Podcast的第四、五集,NVIDIA分別邀請到了英偉達的Danny Shapiro以及New Urbanism的主席兼創始人Lynn Richards , Strong Towns的聯合發起人Charles Marohn為聽眾講述了人工智能將如何重塑城市建設,以及對自動駕駛汽車的相關討論。
人工智能技術將能夠重塑人類的城市化進程,這要歸功於自動駕駛汽車。AI時代下,人們的駕駛方式發生了巨大的改變。不管你是否會擁有一輛自動駕駛汽車,或者你只是作為乘客坐在一輛自動駕駛車上,你都無法否認在未來的十幾二十年內,自動駕駛汽車將佔領道路。未來,汽車將會變得越來越智能和體貼,只要我們知道自己想去哪兒,它就能將我們帶到哪兒。也許大家不會忘記,英偉達已經發布了新一代自動駕駛計算機Xavier。這種計算機具有機器學習功能和自動巡航功能(包括在高速公路上自動駕駛和提供高清製圖)。人工智能正在幫助駕駛員快速準確地對周邊駕駛環境進行掌控,並且你還可以在高精度地圖上進行精確定位,規劃安全行車路線。除了 Xavier ,NVIDIA的人工智能協同駕駛系統AI Co-Pilot還具備人臉識別、頭部追踪、視線追踪、讀唇等功能,它能在行車中輔助駕駛者,提高駕駛安全性與便利性。
當然,在實現自動駕駛被公眾廣為接受之前,各方還需要多多努力。交通環境的複雜及多變性要求各自動駕駛開發商們收集大量的信息和數據來訓練機器,並且還要提升系統的應變能力。這都是在未來需要一步步解決的問題。
此外,人工智能可以做到的事情不只是自動駕駛。深度學習等技術對於重塑城市建設必不可少。其中最關鍵的就是對基礎設施的改良。人工智能可以幫助人類建立起越來越多的宜居城市,在技術的幫助下,以往昂貴的基礎設施建設的門檻將會大大降低,人們的生活品質將會上升。舉個例子,AI會使得目前糟糕的城市道路環境得到改良。自動駕駛汽車普及的初期會增加汽車行駛的里程,延長通勤距離。這也就是說,城市的郊區化進程將會加快。因為長途駕駛變得越來越容易,所以人們就不必要總是住在市中心了。當然,在這個階段,最需要的就是製度的支持。因此政府必須要製定出更多法律法規來保護AI ,監管AI 。只有這樣,人工智能才能為人類建造出一個更加宜居的城市。
為大家奉上這五集的鏈接合集 soundcloud,需要科學上網你懂的。 https://soundcloud.com/theaipodcast/ai-podcast-deep-learning-101 來源: http://www.leiphone.com/news/201701/vDmVtFnooK6wat73.html 台灣最大人工智能、深度學習與GPU議題社團,採實名制,歡迎申請加入 https://www.facebook.com/groups/marketing.gpu |
1-10 of 65