現在的科技日新月異,有越來越多的人工智慧開始出現在這個世界上,像是自動偵測說話內容、很會下棋、還有幫你開車等等。而現在,又有一款新的人工智慧問世,那就是情緒人工智慧。

            情緒人工智慧 (emotion AI) 是結合了攝影機與其他搭載人工智慧程式的裝置,用於收錄臉部表情、肢體動作、講話聲調與其他線索。這項科技的目標是要超越臉部辨識與身分識別,揭露過往科技無法察覺的事:影像裡群眾內心的感受、動機與態度。情緒AI如今已經成為市場調查的工具,並且開始向更困難的領域前進。像是判斷個人感受、個性、以及潛在意圖等等的系統已經開始進行實驗,甚至已經開始使用,以便加強國境防禦、評估面試受試者、以及辨識駕駛的違法跡象等等。並且該系統除了能對臉部表情進行辨識,也能夠藉由講話聲調、肢體動作、或書寫的內容,來分析每個人背後的個性、感情、態度、甚至是危險性。

     但批評者警告,情緒AI的使用層面已經超出了它能分析的範圍,並且很有可能會造成危害。訓練AI的資料集很可能包含種族以及性別偏誤,導致評估的結果也因此產生偏誤。(例如AI的資料集是以白人為主,那在處理非白人的資料時就容易產生偏誤) 而且情緒AI還得處理一項特別艱難的任務: 反映世界的「基準真相」。以最簡單的蘋果為例,機器AI需要重複比對原始資料與標註目標特徵,找出蘋果擁有的「蘋果特性」,在成功找出特性之後,AI就能辨識出任何影像中的蘋果。但是當目標特徵變得難以辨識、難以定義,基準真相就會變得難以表述。試想我們要怎麼直觀表達幸福的表情?或者是疑神疑鬼的表情?遇到這種狀況,就只能用大量人為判斷的數據,模仿人類如何判斷其他人。但是這個過程中有太多的主觀變數,判斷這些資訊的過程,其實是非常複雜的。一張照片裡頭我們只能看到一小部分,但整體的環境往往是被我們忽略的,而這種主觀變數造成的影響,就會對整個AI統造成系統性偏誤,這些偏誤的來源可能存在於訓練資料裡的人口集體偏斜分布,或者資料處理人員的無意識態度,或是其他的來源。例如Google雲端視覺把微笑標籤加註於超過90%的女性,但男性獲得這個標籤的比率小於25%,研究人員認為,訓練資料可能存在性別偏誤,並且這些照片中模稜兩可的臉部表情非常常見: 「很多臉部表情看起來不明確。那真的是微笑嗎?或者是假笑?如果牙齒露出來,但看起來不開心呢?」

    而隨者情緒AI的需求越來越大,科技公司對於訓練資料的需求也越來越多,而這又延伸出了一個新的問題:為了取得大量的數據,科技公司開始從線上行為,挖掘大量個人臉部、身體以及其他身體傳遞的資料。雖然這些資料看似是私人的,但很可惜,事實上並不是。只要這筆資料上,沒有你的個人身份訊息,那份資料就不屬於你。雖然許多科技大廠都聲明這些資訊是匿名化的,並且在監視時會顯示標語以及通知,但是在應用程式百家爭鳴的情況下,這些比較新的科技往往沒有一個共同的標準,我們很可能會在無意識之中,就被科技產品監視,而自己卻渾然不知。

     如果任務範圍狹窄、環境單純、蒐集的生物辨別資訊很多元(聲音、手勢、脈搏、皮下血流等),這項科技就會變得更有效。未來的情緒AI可能會結合這類資訊,但相對地,這只會產生更強大且更具侵入性的技術,而我們的社會可能還無法因應。

參考資料:

What's in a Face? Susana Martinez-Conde and Stephen L. Macknik; Scientific American Mind, January/February 2012.

Facial Recognition—My Favorite Alternative to Password Login. David Pogue; August 2016. Instruments of Bias. Claudia Wallis; June 2021.

The Dawn of Robot Surveillance. Jay Stanley. American Civil Liberties Union, June 2019.

〈機器如何深度學習〉,《科學人》2016年7月號。

〈你的情緒正在被監視〉,《科學人》2022年2月號。

文章標籤
全站熱搜
創作者介紹
創作者 leeshane121 的頭像
leeshane121

leeshane121的部落格

leeshane121 發表在 痞客邦 留言(0) 人氣(31)