美國播客節目《指數視角》專訪李飛飛:疫情、 AI 倫理、人才培養

內容提要:李飛飛近日參與了由《哈佛商業評論》出品的播客節目《Exponential View 指數視角》,作爲嘉賓接受了科技媒體人 Azeem Azhar 的訪問,介紹了 HAI 實驗室近期在醫療 AI 方面的研究,並探討了人工智能在隱私、道德倫理上的問題。

原創:HyperAI超神經

關鍵詞:李飛飛 醫療 AI 隱私 機器價值


斯坦福大學計算機科學教授、美國國家工程院院士、業界公認女神李飛飛,近期做客《 Exponential View 指數視角》播客。

《 Exponential View 指數視角》播客是媒體人 Azeem Azhar 與《哈佛商業評論》聯合出品的科技主題的播客節目。

在國內大力推行區塊鏈技術的愛沙尼亞總統 Kersti Kaljulaid 、微軟總裁 Brad Smith、納斯達克 CEO Adena Friedman 等,都是該播客的近期訪問嘉賓。

李飛飛(左)與主播 Azeem Azhar(右)進行了遠程訪談

李飛飛與主播 Azeem Azhar 圍繞 AI 技術與應用,從 AI 願景到目前專注於AI 醫療的歷程,再到 AI 技術所面臨的隱私、道德倫理問題等,一一進行了深入探討。

30 分鐘的對話,乾貨着實不少。一起來看看 AI 女神最近有什麼思考,她又是如何看待人工智能技術的熱點問題。

以下是太長不看版:

1. 人工智能技術能夠幫助老年人更獨立、更健康地生活,早期發現 COVID-19 感染跡象

使用 AI 驅動的智能傳感器技術,可能有效減少老年人 COVID-19 的感染和病死率。

利用非接觸式的傳感器,如深度傳感器、熱傳感器,能夠進行體溫測量,並監測老年人飲食模式、上廁所模式、睡眠模式等的改變,以及孤獨、癡呆症的早期檢測等等。

李飛飛 4 月在斯坦福的一次在線會議中介紹了最新研究,如何利用 AI 幫助弱勢羣體

2. 技術發展的同時,要顧及隱私尊重與保護

每一步的技術發展,尤其是以人爲中心的技術,都需要在過程中考慮隱私、尊重與尊嚴的問題。即使因此會給技術帶來更大的難度與挑戰,也不能因此而不考慮人文方面的諸多因素。

3. 在學生學習代碼與算法之前,讓他們先融入生活

在 AI 技術發展早期,技術專家們並未考慮到技術的迅猛發展,會對當今人類社會造成什麼影響。

基於歷史經驗,李飛飛認爲今後應該更多地將技術與人文因素聯繫起來。比如斯坦福 HAI 的課程設計中,就將科學與人文兩方面的內容都融合起來,既有純技術內容的課程,也有 AI 的原則、算法的政治、倫理學等內容。

HAI 學生在學習技術的同時,也會深入到工作場景中

4. 機器的價值觀反映了人類的價值觀,因此人類負有道德責任

機器的價值觀正是人類的價值觀的映射。技術的發展與應用是依賴於人類的,因此人類負有道德責任。技術專家應該從所有利益相關者的角度去看問題,而不僅僅是自己的視角,從而消除技術的偏見。

李飛飛曾在演講中稱,未來 AI 需要以人爲本

5. ImageNet 的誕生:源於正確的方法與路徑

ImageNet 不僅對計算機視覺,更是對整個人工智能領域都產生了巨大影響。而李飛飛表示,ImageNet 的誕生,源於團隊在當時現有研究基礎上,正確定義了方法以及關鍵路徑。

6. AGI(強人工智能)的到來自然而然,與人類相互促進

強人工智能從 AI 誕生之初就已有這個訴求,因此它的到來自然而然。而爲了避免 AGI 被人類的智慧邊界所限制,科學家們應該被允許去做更大膽的嘗試,不斷創新突破自我極限,並與 AGI 相互促進、啓發,實現雙向發展。

播客原地址→專訪李飛飛 Podcast 直達

我們對內容進行了翻譯與整理,以下爲完整版。

 

李飛飛:疫情讓我用 AI 幫助和保護老年人

Azeem Azhar:我們知道,你的研究實驗室都是圍繞着機器學習和人工智能的人才。其中一些技能似乎與解決 COVID-19 這種疾病以及它所產生的一些影響非常相關。請問你們的實驗室是如何參與到這其中的?

李飛飛:其實早在八年前,我們就已經意識到計算機視覺和智能傳感器、設備已經進入了一個階段,我們可以開始解決一些現實世界的問題,尤其是我非常感興趣的衛生保健問題。

因此,我們一直在試驗一些關於非接觸式傳感器的研究,試着理解與臨牀結果相關的人類行爲。

其中一個引起我們注意的主要領域是世界人口老齡化問題——我們如何幫助老年人更獨立、更健康地生活?所以我們的研究與臨牀和家庭支持都有關。

具體地,比如包括體溫測量 、飲食模式的改變,以及對上廁所的模式、睡眠模式還有孤獨、癡呆症的早期檢測等等。

智能傳感器在家中可收集多個維度的數據

所以,當 COVID-19 疫情爆發時,我很早就注意到了老年人的看護問題。因爲我有兩個年邁父母,我也很擔心他們。

從數據統計中,我們驚恐地看到獨居者的脆弱性和死亡率更大,因爲獨居者們不僅從免疫系統的角度來看更加脆弱,而且他們中更多人基本的健康狀況都受到影響,因爲他們沒辦法去診所看醫生。

我們就想,能不能加速這項技術,把它帶到老年人的家裏和社區,這樣我們一方面可以幫助早期發現 COVID-19,比如體溫變化、感染的跡象。

Azeem Azhar:那麼可以介紹下你們所研究的是哪種傳感器嗎?這項工作需要哪些數據?

李飛飛:我們目前正在使用和試點的傳感器有兩種。

一種是深度傳感器,比如我們玩 XBox 的視頻遊戲時,就會用到這種傳感器。它不需要看到玩家就能獲取距離信息。

另一種是熱傳感器,研究的是溫度變化或行爲。如果你長時間坐在沙發上不運動,你的飲食頻率和液體攝入就會進入睡眠模式,這種傳感器就能夠監測得到。

熱傳感器有助於發燒、呼吸異常等早期感染現象

 

技術發展與隱私問題之間的權衡

Azeem Azhar:我見過類似的項目,比如大家喜歡高清相機,它的高分辨率可以讓人們看到面部細微的表情。

但是,隨着這種高清技術的出現,它可能會具有侵入性,可能被濫用。在你們研究傳感器過程中,都需要哪些參數呢?

李飛飛:我們所研究的任何傳感器,都會處理隱私問題和尊重人類,我們正與倫理學家和法律學者合作研究隱私問題。

而顧及到隱私問題,深度傳感器就會丟失數據和高保真度、高分辨率的像素着色數據。那麼,我們如何彌補這個問題呢?

我們實驗室正在進行計算機視覺研究,可以在沒有 RGB 高清攝像頭數據的情況下,理解人的姿態細節。

李飛飛介紹道,他們將 AI 模型部署在邊緣設備,數據直接在終端處理,從而減少了隱私風險

Azeem Azhar:在你能得到的數據的保真度和質量以及隱私侵入性之間,是否存在折中?這是必要的權衡嗎?它是一種基本的公理化權衡系統嗎?

李飛飛:這是個很好的問題。我認爲總是會有考慮的。

我們每一步的技術發展,尤其是以人爲中心的技術,隱私、尊重、尊嚴方面,不應該是事後才考慮。所以,從這個角度來說,我們會折中。如果我們不能使用某些信息,就會給技術帶來更大的挑戰和更多的機會。

 

李飛飛:我的學生,需要懂技術也要理解場景

Azeem Azhar:您目前所在的是斯坦福以人爲本人工智能研究所 HAI,能否介紹一下,作爲一個人工智能研究機構,它與你之前工作的團隊或其他更傳統的人工智能機構有什麼不同?

2019 年 3 月,斯坦福 HAI 研究院成立,李飛飛與 John Etchemendy 博士聯合擔任主任

李飛飛:在這裏,讓我興奮的是,從一開始,我們的基因中就帶有的抱負,就是讓我們的研究所(HAI),成爲一個真正的跨學科研究和教育機構。

我們的聯合創始人來自計算機科學、哲學、經濟學、法律、倫理、醫學等各個領域。20 年前,當我還是一名博士生的時候,我做夢也不會想到,我自己的好奇心,會成爲未來改變人文科學和社會的一股力量。

所以,當我意識到這一點,我個人產生了一種巨大的責任感。

Azeem Azhar:在科學實驗室和工程實驗室,特別是計算機科學,它們和人類特徵化的東西之間一直存在着脫節,你會如何解釋這種脫節造成的一些後果?

李飛飛:說起來,這也是我個人成長的一個歷程。我記得 2000 年,我在加州理工學院讀博士一年級的時候,讀的第一篇研究論文是一篇關於人臉檢測的開創性論文。

我導師說,這篇論文是一篇非常棒的機器學習論文。它展示了使用非常慢的 CPU 芯片,進行實時的人臉檢測。

李飛飛在加州理工學院博士期間的導師 Pietro Perona

如今回過頭來看,當年我的導師、同學讀完論文,從來沒有人,甚至連我自己,都沒有考慮到這和人類隱私有什麼關係。

說明這些技術的發展早期沒有考慮到這一點。但過去沒考慮到,是我的問題嗎?可能並不是。

我們做夢都沒有想到這個技術的影響會有多大,但是今天我們看到了這些後果。

Azeem Azhar:沒錯,這是一個非常重要的觀察。這讓我想起 1959 年 C. P. Snow (英國科學家、小說家)一個著名演講,叫做《兩種文化》。

他講道,一般的學者是多麼瞭解莎士比亞,卻對熱力學第二定律一無所知。而知道第二定律或熱力學的學者,卻對莎士比亞一無所知。如果沒有共同的知識,我們就不能用智慧去思考。

如今,你似乎在這兩種文化之間架起了一座橋樑。

李飛飛:對我來說,這是個雙螺旋,我們認爲下一代的學生應該是「雙語」的——技術和人文,這兩種學科都要學習。

過去幾年裏,在硅谷有一件事讓我印象深刻,那就是年輕的技術專家告訴我,他們沒有接受過這樣的知識教育。

當他們現在從新聞中聽到,甚至看到他們自己公司生產的產品,正面對這些對人類影響的問題時,他們都會感到非常恐懼。他們甚至不知道去思考自己的角色是什麼,如何讓世界變得更好。

Azeem Azhar:所以我的經驗是,儘量別把學生看成研究者,而是把他們看成產品經理、開發者和創業者。

我想給大家介紹一下 HAI 有一些課程,真的是非常科學的。比如知識圖、理論神經科學、機器學習和因果推理。然後另一方面,還有算法的政治、倫理學、公共政策、技術變革、數字公民社會、設計人工智能來培養人類的福祉。

在 HAI 課程列表裏,不乏 AI 造福社會、計算機與安全、道德、公共政策等課程

所以,我很好奇,你有什麼創新的方式,來將這兩方面很不相干的學科領域結合起來?

李飛飛:我的學生大多是來自計算機科學背景的碩士和博士生。當他們加入到我們 AI 醫療保健團隊中時,只有一項基本要求——在討論代碼與算法之前,先融入醫護人員的日常生活。

他們需要進入 ICU、病房、手術室甚至是醫護人員 / 患者家中,瞭解這些人的生活方式並跟他們的家人面對面接觸。

所以,這只是一個小小的例子。但是 HAI 在各方面都在做這個事情。

 

技術是中立的嗎?

Azeem Azhar:我聽到有兩類說法,有些人說,技術在倫理上是中立的,它就像一顆行星繞着一顆恆星轉一樣。

但還有一些人說,技術在某種意義上說,是依賴路徑的,是在特定的結構和接觸、偏見、特權和觀點中演化出來的。因此,技術從來都不是中立的。

你認爲這兩種觀點中,哪一種更正確?

李飛飛:所以恆星不是人類製造的,而科技是。

所以我確實相信,有一句話:沒有獨立的機器價值。機器的價值是人類的價值。科學規律有其自身的邏輯和美感,沒有人類的偏見。但是技術的發明創新和技術的應用是非常依賴人的,我們都有這個道德責任。

Azeem Azhar:比如當你在成立這個研究所的時候,你有着來自於斯坦福的背景,你自己也是一個多元文化的人,那麼你怎麼看待斯坦福等這些背景? 

李飛飛:我想說,還是責任感。從早期的斯坦福大學領導層開始,我們就認識到責任感的重要性。

這就是爲什麼 HAI 得到了這麼多的支持。因爲我們清醒地認識到,我們的角色不僅僅是在技術上的創新,而是要利用技術爲人類社會帶來繁榮,包括藝術、音樂、人文科學,以及社會科學、醫學、教育等。

ImageNet:徹底轉變圖像識別

Azeem Azhar:再聊聊你的項目 ImageNet。我認爲它對當下人工智能投資和應用的熱潮中是非常關鍵的。ImageNet 提醒了人們,數據對於 AI 發展的重要性。你有沒有想過,這可能是你在 2006 年開始做這個的時候帶來的影響?

李飛飛:我覺得完成 ImageNet 的項目過程更讓我興奮,我和其他大多數科學家一樣,對於知識都有追求和好奇心,不僅限於關注我們提出的想法會產生多大的影響。

Azeem Azhar:這很了不起。從本質上說,你做了很多繁重的工作來對圖像進行分類,才創造了一個乾淨的數據集,人們纔可以把他們的算法應用在上面。

ImageNet 數量之大,質量之高都是空前的

而在 2012 年之前的幾年裏,每年大約有 3 億美元的資金投入到人工智能創業公司,ImageNet 對人工智能創業環境產生了巨大的影響。

李飛飛:首先,我很慚愧受到這些褒獎,也很感謝你把這些功勞歸功於 ImageNet,我想歷史和時間最終會判斷我們的貢獻,但我們的確爲這些工作感到很自豪。

Azeem Azhar:現在回想 2011 年、2012 年的圖像識別技術發展,但也遠沒有我們今天的圖像識別那麼厲害。現在您作爲這個領域的科學家,如何解讀這些年來的變化? 

李飛飛:ImageNet 正是誕生於「徹底轉變圖像識別」的這個願望,我們當時提出的想法和很多科學發現沒有太大區別, 我們非常希望能夠建立一個能夠真正推動視覺智能研究的北極星(NorthStar),讓我們能夠定義用何種辦法解決大規模物體分類,並且解決這個問題。

我們也的確成功地找出了這個辦法,當然,我們也是站在巨人的肩膀上,並不是憑空想出了這個辦法。正因爲有着前三十年認知神經科學的研究和計算機視覺的研究。

 

李飛飛眼中的通用人工智能(AGI)

Azeem Azhar:對於大衆和媒體,近來經常提及通用人工智能,或者說強人工智能,對你來說 AGI 有什麼意義?

李飛飛:當我最初讀人工智能奠基人圖靈的《機器會思考嗎》,AGI 強人工智能這個概念,也是自人工智能誕生之初就有訴求。所以我覺得強人工智能的誕生是自然而然的。

Azeem Azhar:我很好奇的是,當我們在思考 AGI 強人工智能時,會不會陷入人類中心主義的陷阱?比如第一種是我們通過工程化的方式實現人工智能;第二種是我們推動機器理解我們的規則,導致機器智能的邊界,其實就是人類智慧的邊界。

李飛飛:所以,我覺得應該允許科學家做更大膽的嘗試。牛頓在看星星的時候,人類還沒有用上電力,但是我們要尊重歷史過程中所有的努力。

AI 通常被分爲弱人工智能、通用人工智能(即強人工智能)和超人工智能

從人類智能的角度來說,更讓我興奮的是,我們的工作,讓人工智能、腦科學和認知科學產生了融合。所以在斯坦福大學我們 HAI 的三大原則之一就是:通過人類啓發智能。這些發展也都是雙向的,我們推進對人類認知和人腦的理解,也從中學到更多的東西來提高我們對人工智能的發展。

Azeem Azhar:算法能做的事情比人類要多得多,但現在還處於初期。當你展望 15 年、20 年、30 年後,你認爲我們的人工智能系統的決策能力會怎樣?

李飛飛:首先對於科學的好奇心,是我們繼續推動創造創新的智能機器的動力。想要讓機器智能更加接近人類智能的話,就是我們本身作爲人類,具備人性,能幫助機器更好地與人類交互。如果機器能夠理解人類,能夠像人類一樣思考。

但是同樣,這種發展不能沒有邊界。人類一直創新的方式就是,突破自己的極限。比如,我們沒有汽車、馬車跑得快,但是我們能夠創造這些工具擴展和增強我們的能力,甚至超越我們的能力。

有時創新也不只是突破,創新是複製出人類類似的能力,通過替代人力解決問題。但不管是哪一方面,在我們推進這項技術的同時,邊界必須要有。

Azeem Azhar:謝謝,李飛飛博士,謝謝你願意抽出時間來參與我們的節目。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章