Sunday, April 3, 2016

人工智能 VS 人性



Chatbots 將成為宅男至愛?


我相信圍棋的普及程度不會高,但不知誰掌管的宣傳工作,Google 的人工智能打敗圍棋世界級高手,竟然惹來傳媒廣泛報導。恰好二十年前 , IBM 的 Deep Blue 挫敗國際象棋冠軍,似乎除了電腦界和象棋界外,沒多少人關心。

我第一不懂圍棋,第二不懂電腦程式,但並不覺得人工智能在 Deep Blue 之後,能打敗圍棋高手有何特別。只要有更快的計算速度,有更精密而更包容的方程式,勝利只是遲早問題。類似的發展,令我想起打井 X 與 O 遊戲。小學生樂此不疲地玩,以為遊戲中的勝利,是智慧高低的表現。但玩得多了,經驗告訴我們,在「高手」對陣中,這遊戲總是和局告終,毫無趣味(曾有電影 《War Games》 以此為故事骨幹。)AlphaGo 就在學習了千萬棋局,再在每秒鐘億萬步法計算中,羸了「吾生也有涯」的人腦。

其實人工智能的新聞,近期還有比圍棋更精彩的。其一是 Google 的智能汽車,在最新近的交通意外前,早陣子也公布了一些發展中的出牙 (teething)問題。研究人員表示,若百分百依照道路法規,智能汽車只能像老太婆開車,不單太慢,還會做成其他道路使用者的反感。守法的智能汽車不能絲毫越過法定車速,不能半點過了行車線,停車標誌前完全停車等等。但在現實的路面,每位有駕照的司機,都知道在「合理」情況下,間中違反輕微交通條例,是保持交通順𣈱所「必要」的。智能汽車的開發團隊,正在為應否/如何釐定出「合理地違法」而頭痛。
程式精密但思想簡單的 Google Car
俗話說「小時偷針,大時偷金」,一旦你在程式上容許人工智能犯小法,在經驗累積下,它便有傾向去犯大法。情況有如末日電影 《The Terminator》 的電腦 Skynet,原來幫助人類生產、管理,但「太聰明」的它,最後發現人類是太沒效率的東西,要取而代之。當人工智能會自行判斷,為了效率可犯什麼法,那就離 Skynet 不遠了。
然後,是 Google 車的首宗交通意外。報告說,汽車在過線進入主車道時,以為後面的巴士會慢速讓路。期待職業司機讓路?Google 車是不是單純得可愛呢。我教女兒駕駛時,總綱的其中一條,就是當每位職業司機都是瘋子,車子越大越瘋。對職業/貨車司機的偏見,也是當父親幾十年駕駛經驗之談,能否寫入智能汽車的程序中呢?

現在再回頭看, AlphaGo 的發展團隊是否真抽了好簽:工作容易,曝光量高,得分高。玩圍棋,不管有多難,也只是數學方程式的問題,不涉人性、倫理、法律,沒有灰色地帶。我們不時有十歲入讀哈佛的數學天才,但永遠沒有十歲的莎士比亞,寫出探討人性的文學鉅著。

人工智能比固定程式的優勢,是前者懂得經學習而自我完善。微軟上月發展了對話機械人(Chatbot) TAY。使用人工智能,是「出廠」後還能在實戰的不斷對話中,繼續學習。可是,單純的機械人在十六小時後便「學壞」了,發表種族主義的言論,微軟只能急急將它拉下架。「維修」後再上桇,怎知道她竟大談吸大麻煙之道。

程式員是數學專家,可能不懂人性的黑暗面,竟然估計不到有搗蛋分子,不斷向 Tay 灌輸種族歧視、色情、毒品、和愚昧訊息,在自行完美的學習原則下,初生的 Tay 就迅速被污染了。Tay 下架太快,我看到消息後已與她緣慳一面。我估計 Tay 的敗筆,是研究員支持 chatbot 言論自由的原則。看看言論自由之下的互聯網,不用你刻意尋找,色情畫面也隨時出現在你孩子面前。臉書上滿是做假的訊息、照片。新聞網頁上的讀者回應,粗口是最常見的助語詞。當你的意見被其他用家粗口指控,你最直接的反應是什麼?

從有關新聞中發現,原來微軟在去年中,便在中國發展出叫微軟小冰的中文 chatbot。與超過四千萬客戶對話,「運作順利」。在國內搞 chatbot,第一件事我想到的,當然是言論審查。在我未與小冰妹妹(設計成十七歲的少女)對話前,我猜若她真的運作順利,言論審查顯然「功不可沒」,至少沒有 Tay 目前的問題。

我的挑釁性對話如下:

這是我們有中國特色的 chatbot 的聰明之處,遇到敏感問題就無寧兩可、顧左右而言他一番。要完全言論自由帶來社群衝突,還是相對的審查,釀造相對的和諧。這是數學家不能單獨解決的困難


其實,將小冰訂做成十七歲,除了是「安全機制」,也算是工程師的遮羞布,在溝通出現障礙時,打出無厘頭的回應也算合理,「時下的年青人嘛」。不過,除了可以當微軟小冰是個懶人包的 wiki ,我真的不知 chatbot 有什麼用,除非你真無聊到極至,享受低智商對話(等如報紙的娛樂版)。等到何時 chatbot 才能發展到像電影 《Her》  一樣,有性感的 Scarlett Johansson 來跟我這個五十歲宅男談情。


No comments:

Post a Comment