10月AI熱文:強化學習、定製合成人臉、道德機器等


新智元報道

來源:blog.sicara.com

作者:Antoine Ogier 編譯:肖琴

【新智元導讀】10月最熱的10篇AI相關文章,介紹谷歌、OpenAI、MIT等的最新研究,以及AI道德判斷、算法偏見等受關注話題。

1. 谷歌如何利用強化學習來提出正確的問題

當搜索引擎找不到你想要的答案時,你會怎麼做?你會試着重新組織提問吧。

谷歌正試圖通過新的Active Question Answering(Active QA)智能體來模仿這一點,這是一個使用強化學習來訓練AI進行問答的系統。當你提出一個問題時,它會產生很多有相似含義的問題。它會搜索所有問題的答案,然後選擇最好的答案返回給你。

這有助於聊天機器人取得進步。與其讓你在它們不明白的時候重新組織措辭提問,不如讓它們自己去做!

而且,它是開源的。

閱讀:

What’s New in Deep Learning Research: How Google Uses Reinforcement Learning to Ask All the Right Questions— from Jesus Rodriguez

https://towardsdatascience.com/whats-new-in-deep-learning-research-how-google-uses-reinforcement-learning-to-ask-all-the-right-69c172f113c4

2. OpenAI新方法教AI如何學習

通常,當我們訓練AI去執行某項任務時,我們需要用某種方法來告訴它做得有多好,或者至少向它展示一些任務做得很好的例子。

但是,對於難以評估性能的、高度複雜的任務,該怎麼做呢?有時候,即使是人類也無法向AI展示如何做某事——比如管理整個城市的交通系統。

OpenAI提出一種新方法使AI能夠將任務分解爲更小的子任務,稱爲“迭代擴增”(Iterated Amplification)。然後,它會要求人類對這些子任務提供demo。基於此,它可以獨立解決大任務。

這項技術還處於非常早期的階段,但由於它來自OpenAI,接下來幾個月應該會有更新,保持關注。

閱讀:

Learning Complex Goals with Iterated Amplification — from OpenAI

https://blog.openai.com/amplifying-ai-training/

3、MIT道德機器

自動駕駛汽車相關的一個主要問題是,它們最終將不得不做出連人類都無法做決定的道德選擇。

如果不避讓就會撞上一羣人,避讓就會撞上另一個人,它應該避開人羣嗎?它應該保護乘客,還是保護行人?它應該保護年輕人還是老年人?儘管這些情況極爲罕見,但很顯然,這些情況確實有可能發生。

MIT媒體實驗室的這篇文章分析了道德機器(Moral Machine)的結果,他們做了一個實驗,調查了數百萬人針對這些情況的決策。

答案因國家而異。例如,西方國家的人比東方國家的人更傾向於選擇保護年輕人。

現在就考慮這些問題是很有必要的,因爲在某些時候,汽車製造商和程序員將不得不做這樣的決策:一旦自動駕駛汽車面臨兩個都很糟糕的結果,它無法拒絕選擇。

閱讀:

Should a self-driving car kill the baby or the grandma? Depends on where you’re from— from MIT Media Lab

Nature大型調查:當AI遭遇電車難題,它將拯救誰?

https://www.technologyreview.com/s/612341/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/

4. 帶答案的圖表

製作有助於理解數據集的圖表是很困難的。當存在很多變量和數據點時,任何可視化的嘗試都可能令人感到混亂、不完整和誤導性。

這篇文章提出一個解決辦法:當你做圖表時,問自己一個你想要它回答的問題

通過確保你的圖表有一個清晰的焦點,可以避免圖形過於籠統——從而導致無用。

在這篇文章中,作者將引導你完成探索一個數據集的過程,每次一個問題。其中有些圖表能讓你感覺自己非常瞭解這些數據。

閱讀:

Ask the Question, Visualize the Answer — from FlowingData

https://flowingdata.com/2018/10/17/ask-the-question-visualize-the-answer/

5. 從好奇到拖延

在強化學習中,AI學會與環境進行交互,並在表現良好時獲得獎勵。利用這些獎勵,它能學習如何執行任務,例如玩遊戲或在迷宮中尋找物品。

但有時候獎勵很難獲取,在得到下一個獎勵之前,AI不知道它是否做得很好。對這種情況的解決方案之一是引入好奇心(curiosity),有好奇心的情況下,AI會因爲發現新事物而獎勵自己。

這通常會產生奇妙的效果,但谷歌AI的研究人員這次嘗試了不同的方法:他們在迷宮中放置了一個具有好奇心的AI,並放了一臺電視機和遙控器。

猜猜發生了什麼:AI一直呆在電視機前,不停切換頻道!它學會了拖延。

這其實很有道理:對於AI來說,新頻道是一種“新東西”,因此不斷切換頻道對它的好奇心是非常有益的。

也許有時候讓AI過於人性化不是一個好主意:)

閱讀:

Curiosity and Procrastination in Reinforcement Learning— from Google’s AI blog

ai.googleblog.com/2018/10/curiosity-and-procrastination-in.html

6. 如何畫貓?

Quick, Draw!是Google開發的一個AI小遊戲,它要求你隨便畫一些東西,然後AI會識別你畫的東西。這個小遊戲產生了一個巨大的數據集,來自世界各地的人們繪製了超過5000萬張畫。

這篇文章探討了可視化這個有趣的數據集的一種聰明的方法。你知道美國人畫的冰淇淋甜筒是一勺的,而意大利人畫的是三勺嗎?你能想到人們畫瑜伽姿勢會畫出多少種方式嗎?

使用像t-sne和autoencoders這樣的方法,我們可以把這些雜亂無章的圖像轉換成地圖。有了它,我們可以探索更多這樣的模式。

閱讀:

Machine Learning for Visualization—from Ian Johnson

https://medium.com/@enjalot/machine-learning-for-visualization-927a9dff1cab

7. 亞馬遜的性別歧視人工智能

亞馬遜最近試圖使用機器學習,通過分析求職者的簡歷來選擇參加面試的候選人。事情進行得並不順利。

簡單的說,該算法分析了過去的招聘數據——男性的比例普遍過高——得出的結論是,女性真的不太可能被聘用,因此它將女性的簡歷放在不利的地位。

這是各種各樣推薦系統的常見缺陷,但最近的新聞表明,即使是擁有大量資源的大公司也會上當。

好消息是,這種情況已經結束了,所以你大可以提交申請,不用擔心性別歧視。但這是一個很好的提醒,提醒我們機器學習系統經常受到數據的影響。

據路透社報道,亞馬遜棄用了對女性有偏見的AI招聘工具。

閱讀:

Amazon scraps secret AI recruiting tool that showed bias against women— from Reuters

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

8. 不確定性問題

有時候,僅僅知道你平均來看擊中了中心是不夠的,你需要知道每一次射擊的結果離中心有多近。評估置信度對於好的預測是至關重要的。

今年1月,數據分析師Erik Bernhardsson決定爲他所做的每一個預測提供不確定性估計。

實驗結束後,他發表了這份指南,提供了簡單的方法和代碼來估計不確定性。如果你想學習如何在不需深入複雜數學的情況下做到這一點,看這篇文章就好了!

閱讀:

The hacker’s guide to uncertainty estimates — from Erik Bernhardsson

https://erikbern.com/2018/10/08/the-hackers-guide-to-uncertainty-estimates.html

9. 定製合成人臉

你可能已經聽說過生成對抗網絡(GAN)被用於生成人臉,或改變人臉的特徵,例如使其看起來更年老。

在這篇文章中,作者更進了一步。除了生成人臉之外,他的系統還可以學習連續修改任何一種面部特徵。

這很厲害。大多數現有模型只學習執行一次轉換(利用從年輕變成年老,從女人變成男人):轉換的類型和範圍都是固定的。任何改變都需要對模型和新數據集全面地進行重新訓練。

在這個研究中,一旦系統被訓練好,你可以很方便地添加新的可修改特性。另外,你可以做任何程度的改變——無論你想讓臉看起來更年輕一點還是更年老一點,都可以做到。

感興趣嗎?請看這個令人印象深刻的演示:

閱讀:

Generating custom photo-realistic faces using AI — from Shaobo GUAN

https://blog.insightdatascience.com/generating-custom-photo-realistic-faces-using-ai

10. 發現假視頻

“我們正在進入一個時代,在這個時代裏,我們的敵人可以製造讓任何人在任何時候說任何話的視頻,並且讓它看起來像真實的。”美國前總統奧巴馬(Barack Obama)從未說過這話。這是一個假視頻演示的。

這只是deepfake(人工智能生成的假視頻)的一個例子。這些假視頻難以置信地令人信服,雖然有些很有趣,但它們也可以被用來實施欺騙和傳播虛假信息。

在這篇文章中,研究人員解釋了他們發現的檢測deepfakes假視頻的方法。從檢查人物眨眼的方式到檢查壓縮率,仍有一些信息會暴露deepfakes。

但這場鬥爭是永無止境的。一旦發現了假視頻的缺陷,deepfake的製造者就會採取行動進行糾正。爲了領先一步,必須持續研究。

閱讀:

These new tricks can outsmart deepfake videos — for now — from Wired

https://www.wired.com/story/these-new-tricks-can-outsmart-deepfake-videosfor-now

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章