到目前為止,人類還沒能設計出一個有知覺的人工智能,至少就我們所知還沒有。但是人類在人工智能之路上從未停下腳步,我們正在幫助機器逐漸看見、看懂、理解這個世界。上個月,Google展示了其開發的Deep Dream眼中的世界,這些抽象的圖片看起來甚是詭異。而斯坦福大學的一個科學家團隊也有一個類似的項目:NeutralTalk,這個程序能夠通過對圖像進行分析,然後用語言對圖像中的信息進行描述。
該項目去年就公佈了,主要的開發者是斯坦福大學人工智能實驗室主任Fei-Fei Li和他的研究生學生Andrej KarPathy。該程序能夠對複雜的圖像進行分析,並且對圖像中正在發生的事情進行準確地描述。比如説:如果圖片上是一個穿着黑色襯衫彈吉他的男人,那麼該程序就會將其描述成:“穿着黑色襯衫的男人在彈吉他”。儘管在小狗越過藩籬、女孩吃蛋糕和穿着藍色潛水服的男人在衝浪的圖片上該程序都給出了準確的描述,但是在大多數情況下,該程序的描述都是不準確的。
和Google的Deep Dream一樣,NeutralTalk使用的也是神經網絡對圖像的內容進行識別,即通過將新圖像和已經存在於神經網絡之中的圖像進行模式比對來進行識別。神經網絡的工作模式和認的大腦類似,準確地説更像是一個小孩,一旦他們學會了基本的識別方法,它們就能夠從新的圖片和視頻中識別出那些東西——比如一本書、一隻貓或是一個三明治。
但目前這項技術還不夠完美。比如有一張一個成年女人拿着一個甜甜圈的照片就被識別成“一個小女孩拿着吹風機吹頭髮”,而一個好奇的長頸鹿則被描述為:“一隻狗望向窗外”。更搞笑的是有一張兩夫妻和一個生日蛋糕站在花園裏面的照片,竟然被説成是“一個穿着綠色襯衫的男人正站在一頭大象旁邊”;但好在這些識別通常都會給出一個替代選項,這張圖片的替代選項的描述還算準確:“一個站在外面的女人拿着一個椰子蛋糕,一個男人在看着”。
在互聯網上有大量的圖像和視頻信息,而現在已經有很多可被搜索的視覺信息都被進行了手動的標註。當Google剛剛打造Google地圖的時候,Google還需要一個團隊去檢查那些上傳的照片,確保那些照片確實是在相應的位置拍攝的。也許正是因為這樣的工作實在是太無聊了吧,他們就打造了Google大腦(Google Brain),現在,Google大腦已經可以在一個小時之內處理整個法國的所有街景信息。
Li介紹説:“我將圖片和視頻中包含的像素信息視為互聯網中的暗物質,現在我們要照亮它們。”之前,引領這項“照明”工作的通常都是像Google和Facebook這樣的互聯網巨頭,它們有足夠的資源對數以億計的照片進行篩選和分類。但以前的研究都主要還是集中在單一事物的識別上,但計算機科學家稱這種研究方向忽略了大局。華盛頓大學的計算機科學家Ali Farhadi説:“我們專注於物體,而忽略了動詞。”
好在最近越來越多的項目都在試圖從圖像信息中發掘出更多有用的信息,而不再僅僅指出圖片中有什麼。而斯坦福大學的這項研究使用了自然語言對結果進行描述,我們可以假設一下這項技術的應用場景。比如你將你的照片放在Google Photos中,然後你就可以用“一隻狗跳過籬笆”或者“我在時代廣場的自拍”這樣的關鍵詞對你的照片進行搜索了,甚至你還能使用這樣的語句在Google或者YouTube上去檢索相應的圖片和視頻;同時,圖片和視頻上傳者也不需要費盡腦汁為自己上傳的文件貼上幾個準確的標籤。
神經網絡也有在現實世界的應用潛力,在今年的國際消費類電子產品展覽會(CES)上,NVIDIA宣佈了推出一個駕駛輔助平台Drive PX,能將“深度神經計算機視覺”整合到汽車之中。該平台也是使用了能夠學習的神經網絡技術,NVIDIA的CEO黃仁勛稱該技術能夠自動識別出潛在的危險,在發現行人、交通標誌和救護車時對駕駛員發出警示。神經網絡的應用意味着Drive PX並不需要了解所有汽車就能識別出車輛。比如根據車的大小可以確定一輛車是SUV,或者根據車頂上的燈識別出警車。NVIDIA已經在這項技術的開發中奮鬥了許多年時間,而且事實上斯坦福大學的研究項目就建立在該公司提供的圖形處理器的基礎上。
斯坦福大學的這項技術還在不斷的演進,現在該團隊已經將他們的成果發佈在了GitHub上面。未來,計算機將對我們的行為有更深的認識和理解,想象一下,當計算機能夠準確地識別和理解它所看到的一切時,世界該是個什麼模樣?
via theverge
資料來源:雷鋒網
作者/編輯:吳攀
該項目去年就公佈了,主要的開發者是斯坦福大學人工智能實驗室主任Fei-Fei Li和他的研究生學生Andrej KarPathy。該程序能夠對複雜的圖像進行分析,並且對圖像中正在發生的事情進行準確地描述。比如説:如果圖片上是一個穿着黑色襯衫彈吉他的男人,那麼該程序就會將其描述成:“穿着黑色襯衫的男人在彈吉他”。儘管在小狗越過藩籬、女孩吃蛋糕和穿着藍色潛水服的男人在衝浪的圖片上該程序都給出了準確的描述,但是在大多數情況下,該程序的描述都是不準確的。
和Google的Deep Dream一樣,NeutralTalk使用的也是神經網絡對圖像的內容進行識別,即通過將新圖像和已經存在於神經網絡之中的圖像進行模式比對來進行識別。神經網絡的工作模式和認的大腦類似,準確地説更像是一個小孩,一旦他們學會了基本的識別方法,它們就能夠從新的圖片和視頻中識別出那些東西——比如一本書、一隻貓或是一個三明治。
但目前這項技術還不夠完美。比如有一張一個成年女人拿着一個甜甜圈的照片就被識別成“一個小女孩拿着吹風機吹頭髮”,而一個好奇的長頸鹿則被描述為:“一隻狗望向窗外”。更搞笑的是有一張兩夫妻和一個生日蛋糕站在花園裏面的照片,竟然被説成是“一個穿着綠色襯衫的男人正站在一頭大象旁邊”;但好在這些識別通常都會給出一個替代選項,這張圖片的替代選項的描述還算準確:“一個站在外面的女人拿着一個椰子蛋糕,一個男人在看着”。
在互聯網上有大量的圖像和視頻信息,而現在已經有很多可被搜索的視覺信息都被進行了手動的標註。當Google剛剛打造Google地圖的時候,Google還需要一個團隊去檢查那些上傳的照片,確保那些照片確實是在相應的位置拍攝的。也許正是因為這樣的工作實在是太無聊了吧,他們就打造了Google大腦(Google Brain),現在,Google大腦已經可以在一個小時之內處理整個法國的所有街景信息。
Li介紹説:“我將圖片和視頻中包含的像素信息視為互聯網中的暗物質,現在我們要照亮它們。”之前,引領這項“照明”工作的通常都是像Google和Facebook這樣的互聯網巨頭,它們有足夠的資源對數以億計的照片進行篩選和分類。但以前的研究都主要還是集中在單一事物的識別上,但計算機科學家稱這種研究方向忽略了大局。華盛頓大學的計算機科學家Ali Farhadi説:“我們專注於物體,而忽略了動詞。”
好在最近越來越多的項目都在試圖從圖像信息中發掘出更多有用的信息,而不再僅僅指出圖片中有什麼。而斯坦福大學的這項研究使用了自然語言對結果進行描述,我們可以假設一下這項技術的應用場景。比如你將你的照片放在Google Photos中,然後你就可以用“一隻狗跳過籬笆”或者“我在時代廣場的自拍”這樣的關鍵詞對你的照片進行搜索了,甚至你還能使用這樣的語句在Google或者YouTube上去檢索相應的圖片和視頻;同時,圖片和視頻上傳者也不需要費盡腦汁為自己上傳的文件貼上幾個準確的標籤。
神經網絡也有在現實世界的應用潛力,在今年的國際消費類電子產品展覽會(CES)上,NVIDIA宣佈了推出一個駕駛輔助平台Drive PX,能將“深度神經計算機視覺”整合到汽車之中。該平台也是使用了能夠學習的神經網絡技術,NVIDIA的CEO黃仁勛稱該技術能夠自動識別出潛在的危險,在發現行人、交通標誌和救護車時對駕駛員發出警示。神經網絡的應用意味着Drive PX並不需要了解所有汽車就能識別出車輛。比如根據車的大小可以確定一輛車是SUV,或者根據車頂上的燈識別出警車。NVIDIA已經在這項技術的開發中奮鬥了許多年時間,而且事實上斯坦福大學的研究項目就建立在該公司提供的圖形處理器的基礎上。
斯坦福大學的這項技術還在不斷的演進,現在該團隊已經將他們的成果發佈在了GitHub上面。未來,計算機將對我們的行為有更深的認識和理解,想象一下,當計算機能夠準確地識別和理解它所看到的一切時,世界該是個什麼模樣?
via theverge
資料來源:雷鋒網
作者/編輯:吳攀
請按此登錄後留言。未成為會員? 立即註冊