靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(下)

靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(下)
靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(下)

人工智慧辨別人臉技術如何?又有哪些隱憂?身為e世代的你不可不知!(下)

本系列文章為【為了被 AI 認出,你願意戴上「白面具」嗎?臉部辨識的隱憂】的下篇,上篇請點此

為什麼人工智慧不擅長辨識黑人女性?

▲ 科學期刊《自然》所刊之專文指出,被偏倚資料組訓練出來的演算法,通常僅會將左圖辨識成「新娘」。(圖片來自:Left:iStock/Getty;Right:Prakash Singh/AFP/Getty)

 

那究竟為什麼 AI 不擅長辨識黑人與女性呢?讓我們從波拉維尼的故事說起:

在 MIT 實驗室的某日,波拉維尼用自己的臉部照片測試了微軟、IBM 等公司的臉部辨識 服務,卻發現這些將自己宣稱的多先進的服務,有的將她誤認為男性、有的對她的照片沒有反應,根本辨識不出東西,錯誤率高到令她吃驚。

一直到她戴上白人面具,AI 彷彿恢復正常般,又可以辨識了。難道是因為她的臉部長相太特別、剛好是 AI 辨識不出來的特例?還是……這些辨識服務本身就有漏洞?

於是,波拉維尼決定進行更廣泛的測試。她輸入了超過 1000 張照片,包括不同種族、不同性別。結果發現一個明顯的趨勢:膚色愈白,辨識正確率就越高;另一方面男性的正確率遠比女性高。讓她明白為何臉部辨識幾乎無法認出她——因為她是一位具有「雙重弱勢」黑人女性,她這類人的辨識正確度,遠遠低於白人男性。

真相其實很簡單,歸根究柢就是因為在訓練演算法時,開發團隊並沒有提供多元的種族和性別資料給 AI 所導致。換句話說,AI 在「成長過程」中,認知到的世界就多由白人、男性所構成。

即使並沒有人刻意將人工智慧訓練成這樣,但它可能引發的後續問題,或許比存有種族偏見的街頭警察更加嚴重……

還沒有完善就直接上陣的演算法

這個問題多花點時間就可以修正,只要提供多元組成的資料給 AI 即可,但這些科技公司依然選擇讓不完全的臉部辨識服務上線。

而臉部辨識服務也不是唯一一個,會將存有偏見疑慮的 AI 服務投入實用的案例:

2018 年紐西蘭移民署(Immigration New Zealand)實行一項實驗計畫(pilot programme),藉由國家簽證申請程序蒐集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等等資料,預測這些居留者如果續留,有無犯罪的可能或是否帶來更多醫療支出。一旦 AI 認為,某些移民有治安或醫療方面的疑慮,他們將無法重新申請簽證,甚至會直接被驅逐出境。

消息一出立刻引發強烈抨擊,不少民眾與人權團體質疑這套演算法帶有偏見、背後隱藏著種族歧視,並且也鬧過荒謬的烏龍──一位印度裔移民的家屬被拒絕居留,只因移民署的 AI 認為他的母親過去曾經患有乳癌,但實際上他母親不曾患過任何關於乳房組織的疾病。

科技巨頭急煞車 將道德倫理納入考量

波拉維尼的研究成果公開後,IBM 於 2018 年投入解決 AI 歧視的問題、2020 年甚至直接宣布「不再開發、提供授權或研究臉部識別技術」;微軟則採納報告以改善誤差,並表示未來開發演算法時會納入道德倫理的考量。

▲ 波拉維尼之研究成果

 

2018 年微軟在官方網站上公布人工智慧開發應考量的六大倫理原則:公平性、可信賴性與安全性、隱私與安全、包容性、透明以及課責。並且透露微軟已成立「人工智慧與工程及研究倫理委員會」,負責研究人工智慧產品研發對人類和社會的影響。

IBM 2020 年 4 月新上任的執行長 Arvind Krishna 撰寫一封公開信致函美國國會:「IBM 堅決反對且不會容許任何技術(包括其他業者的人臉辨識技術)用於大規模監控、種族歧視、違反基本人權與自由,或不符合我們價值觀與《信任與透明度準則》的行為。」

反觀亞馬遜,一開始不斷否認自家臉部識別平台 Rekognition 存有缺陷,甚至指波拉維尼的研究為「詆毀」,直到 2020 年年中因非裔男子喬治‧弗洛伊德之死,讓美國種族膚色衝突白熱化,亞馬遜才宣布將暫停讓美國執法部門使用 Rekognition 一年,為了避免更嚴重的爭議。

臉部辨識技術雖然可以為人們的生活增添許多便利的地方,但同時公共安全與個人隱私之間的取捨、種族性別的偏見爭議,都為這個自發展初期即飽受爭議的 AI 技術,更是蒙上一層陰影。

 

 

 

 

 

推薦文章:
每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人


愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?


【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?


暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖


向經典致敬!重金屬音樂結合人工智慧再創新歌!


居家照護交給人工智慧!翻轉家庭變幸福!(上)


人和人工智慧能談戀愛?!韓劇”我的全像情人”帶你探討!

靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(上)

靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(上)
靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(上)

人工智慧辨別人臉技術如何?又有哪些隱憂?身為e世代的你不可不知!(上)

 

為了人工智慧辨識,你願意戴「白面具」嗎?臉部辨識的隱憂

人工智慧臉部辨識技術越來越成熟,能夠辨別出「你是誰」已經是基本款中的基本款了!越來越多 AI 辨識技術宣稱可以「從臉孔辨識出智商、性取向、政治傾向甚至是犯罪可能」。

看上去功能如此強大的 AI,卻遭披露「其實只擅長辨認白人」,讓臉部辨識的隱憂浮出水面。

AI 臉部辨識技術目前已被廣泛使用,也實際應用於執法:根據紀錄,從 2011 年起美國聯邦調查局(FBI)偵辦案件時就開始使用臉部辨識技術,至今累計了超過 39 萬次的臉部辨識搜索紀錄,是近年美國執法部門應用成長速度最快的系統工具。

但隨之而來的是被大力敲響的警鐘:一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)指出,臉部辨識技術其實十分容易誤認有色人種。

只擅辨識「中年白人男性」的 AI

 

In this Wednesday, Feb. 13, 2019, photo, Massachusetts Institute of Technology facial recognition researcher Joy Buolamwini stands for a portrait at the school, in Cambridge, Mass. Buolamwini’s research has uncovered racial and gender bias in facial analysis tools sold by companies such as Amazon that have a hard time recognizing certain faces, especially darker-skinned women. Buolamwini holds a white mask she had to use so that software could detect her face. (AP Photo/Steven Senne)

▲ (圖片來自:圖片來自:AP Photo/Steven Senne)

 

AI 臉部辨識技術已經成熟了嗎?或許真的該打上個大問號。

來自 MIT 實驗室的迦納裔資料科學家喬伊‧波拉維尼表示,根據她在 2018 到 2019 年間做的兩項研究,證實眾多科技公司開發的 AI人工智慧 目前都無法如辨識白人男性臉孔般、準確的辨識出膚色較深的女性臉孔。

其中,尤其以 IBM 系統失誤率堪稱最高,竟然高達 34 %;而亞馬遜的 Rekognition 會將 19 %的女性誤認為男性,如果分析對象為膚色較深的女性,誤判機會更是高達 31 %,同時該系統在分析膚色較白的人種時,錯誤率幾乎等於零。

波拉維尼發現,這些由科技巨頭如微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人、黑人與女性竟然出現了差別待遇:「判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。」

推薦閱讀:
微軟AI新聞編輯才上線就出包!錯置有色人種配圖,女歌星森77

本系列文章未完,請點此看下一篇

 

 

 

 

推薦文章:
【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?


每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人


愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?


暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖


人工智慧結合居家照護,溫暖每個需要的家庭(上)


人工智慧貓砂盆問世,愛貓健康有保障!(1)


重金屬天團音樂也難不倒人工智慧?!自編曲向經典致敬!

新聞編輯換”人工智慧”做!上線不久卻出包?!(下)

新聞編輯換"人工智慧"做!上線不久卻出包?!(下)
新聞編輯換”人工智慧”做!上線不久卻出包?!(下)

新聞編輯竟然讓人工智慧來操刀?!聽說上線不久卻出包好幾次?!(下)

本篇為下篇,上篇請點此連結

人工智慧臉部辨識 不易分辨有色人種

▲ 被亞馬遜「Rekognition」 臉部辨識系統錯認的 28 位國會議員

 

其實人工智慧在辨識有色人種時,似乎常常出錯。像是 2018 年,美國公民自由聯盟(American Civil Liberties Union,ACLU)就對亞馬遜提供的「Rekognition」 付費臉部辨識服務做了一項測試。

ACLU 蒐集了 25000 張嫌犯照片做為臉部辨識的資料庫,並使用預設的設定,讓 Rekognition 逐張比對國會議員和資料庫裡的嫌犯照片。結果,最後有 28 名國會議員被誤判,在誤判的議員中,有 40% 的議員是有色人種 ── 即便有色人種在全部的國會議員中只占了兩成。

▲眾議員 Sanford Bishop(D-Ga.)被 Amazon Rekognition 臉部辨識系統錯認為罪犯

 

然而,「Rekognition」 臉部辨識系統也被美國警方使用。這是否會在不知不覺中侵犯到有色人種的權益?目前亞馬遜已因此問題,暫停提供這套系統給美國政府使用。

現有的臉部辨識技術,在分辨有色人種特別容易出錯,也許是以下原因所導致:

AI資料庫的白人照片比較多

美國喬治城大學法律中心(Georgetown Law School Center)的隱私與科技領域資深助理 Clare Garvie 表示,原因可能是出在工程師建立 AI 人工智慧的臉部辨識資料庫時,提供的白人照片相對比有色人種多而導致。

開發工程師以白人居多

一個研究顯示:人們在辨識另一種族的人員時,準確度會低於辨識與自己相同種族的成員。 而大部分 IT 產業的工程師多以白人男性居多,他們開發出的臉部辨識系統在辨識有色人種的準確度時,無形中也比白人還差 ── 即使他們無意為之。

其時除了臉部辨識的問題,使用人工智慧來取代真人撰寫、改編新聞,本來就爭議連連:

過去英國《衛報》曾將一則關於英國脫歐的新聞中,第一段中的一些句子餵給人工智慧,結果 AI 馬上產生「可信度高」的假新聞與文章 ── 文中的人名 (如政壇人物的名字)、地名與所提到的片段事件皆為真實存在,不過新聞的內容卻是將這些真實的元素移花接木而成,但是卻符合邏輯,因此非常容易被有心人士用來製造假新聞。(詳細報導:AI寫作能力強過人類,恐成為假新聞製造機?)

人工智慧太會捏造新聞,甚至有人懷疑之前馬斯克離開自己創立的 AI 人工智慧研究團隊「OpenAI」與此有關呢!(詳細報導:馬斯克宣布離開 OpenAI 的真正原因是…研發的 AI 太會寫假新聞?)

無論如何,AI人工智慧畢竟沒有靈魂,因此並沒有明辨是非的能力,所以生產出的文章都會跟現實有些出入。所以最好的方法還是把新聞的編輯、審稿的工作交還給人類,畢竟這個世界八卦與謊言已經太多了!我們需要真實的東西!

 

 

 

 

 

推薦文章:
台灣本土開發AI 發行首張音樂專輯<<武漢肺炎>>


線上職訓正夯 從零開始花半年錄取軟體工程師


Python vs R語言:哪個比較適合人工智慧/機器學習?


六個月從工地工人轉職 Java 軟體工程師,全因半年做了「對的決定」


學Python就是要摸透它的底細!一次弄懂它與人工智慧的關係!


連重機賽車手冠軍都佩服的存在!人工智慧做到了!


向狗狗學習!人工智慧機器人不僅會左轉右彎還會小跑!(上)

新聞編輯換”人工智慧”做!上線不久卻出包?!(上)

新聞編輯換"人工智慧"做!上線不久卻出包?!(上)
新聞編輯換”人工智慧”做!上線不久卻出包?!(上)

新聞編輯竟然讓人工智慧來操刀?!聽說上線不久卻出包好幾次?!(上)


▲ 普林斯敦大學的研究團隊結合人工智慧新聞編輯混淆了英國兩位有色人種歌手:Leigh-Anne Pinnock(左)和 Jade Thirlwall(右)。 

微軟用人工智慧編輯新聞!全球近百名員工飯碗不保?

日前微軟公司宣布:要讓 AI取代旗下近百位「真人」新聞記者與編輯,來為微軟新聞、MSN.com 等管道,挑選、編輯新聞。根據 Business Insider 報導,美國有約 59 人遭裁撤;衛報也則提到英國也有約 27 人遭裁,還有其他國家地區的辦公室,也有許多員工面臨飯碗不保的窘境。

沒想到這個 AI 人工智慧才上線一個月就出包,還牽扯到近期非常敏感的種族議題,引發人們對人工智慧的編輯新聞能力、整體臉部辨識科技產生疑慮。

推薦閱讀:AI寫作能力強過人類,恐成為假新聞製造機?

AI人工智慧錯置新聞配圖 女歌手指名「請加油吧」

根據英國《衛報》指出,微軟旗下的 MSN 新聞網站,近日轉載了英國《獨立報》有關英國流行女團 Little Mix(混合甜心)的報導,內容是關於其中一位成員 Jade Thirlwall 過去在學校中遭受種族歧視的心路歷程。

雖然這是一篇十分單純的採訪報導,但是經過微軟的 AI 人工智慧編輯及臉部辨識後,轉載結果出來的新聞配圖竟然不是採訪的對象 Jade Thirlwall,而是同團的另一名團員 Leigh-Anne Pinnock 與另一名男性的合照!

▲ 被人工智慧錯置配圖的新聞主角 Jade Thirlwall 在 IG 上表達對 MSN 新聞的不滿

 

AI 人工智慧造成的烏龍,引發新聞主角 Jade Thirlwall 的不滿。她在 Instagram 上標註 MSN 並抱怨說:「@MSN 如果你們要複製貼上別家正確的媒體文章時,至少應該要先確認一下配圖是否為正確的有色人種團員」。她還補充說:「這讓我很生氣,你們竟然沒辦法從只有 4 人團體中,區分 2 個有色人種女性?拜託你們,好好加油!」

目前仍然不清楚是什麼原因讓微軟 AI 人工智慧犯下如此錯誤,但微軟在最新的聲明中表示:這並不是「演算法偏見(註解如下)」的結果,而是自動化系統中的新功能測試。

所謂的「演算法偏見(algorithmic bias)」是指在看似沒有惡意的程式設計中,卻帶有程式設計人員的偏見、或者採用的數據是有偏見的。「演算法偏見」的結果當然帶來了各種問題:如 Google 搜尋被曲解、合格的考生卻無法進入醫學院就學、聊天機器人在推特 (Twitter) 上散佈種族主義和性別歧視資訊等等。

本篇為上篇,下篇請點此連結

 

 

 

 

 

推薦文章:
六個月從工地工人轉職 Java 軟體工程師,全因半年做了「對的決定」


台灣本土開發AI 發行首張音樂專輯<<武漢肺炎>>


Python vs R語言:哪個比較適合人工智慧/機器學習?


線上職訓正夯 從零開始花半年錄取軟體工程師


人工智慧不用擔心被騙!捷克新創AI,輕鬆揪出金融駭客(上)


人工智慧與汽車雷達攜手合作!開車安全又放心!


Python與人工智慧關係匪淺!?聽說和大數據還有一腿!?