人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)
人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)

本系列文章為【人工智慧寫「不想消滅人類」登《衛報》……記者將被 AI 取代?】的下篇,上篇請點此閱讀。

GPT-3 的強大與隱憂

GPT-3 是人工智慧研究組織 OpenAI 於今年 5 月發表自然語言處理語言模型,目前被稱為是世界最強大的 NLP 模型。不僅可以分析單字、單詞和文本,還可以生成與主題相符且連貫的文章。

只要給出明確的主題或提示,GPT-3 就可以自動產生一段甚至文章,適用所有用文字表達的工作:不管是評論文章、散文,還是詩歌或是翻譯語言,無一不包。

儘管 GPT-3 的強大確實令人刮目相看,但此類創新技術對整個人類社會來說,還有很多需要考慮的地方──儘管這篇刊登在《衛報》上、由人工智慧生成的文章宣稱沒有什麼好擔憂的。

並且,也非所有人都認同《衛報》的做法。

科技新聞網站 The Next Web 就指《衛報》的作法最主要只是在炒作 AI。因《衛報》未將 AI 寫的原始文章公布,也沒有公開編輯們是如何後製、修飾、拼接這些文章的,並且引述 Mozilla 研究員的說法,稱其為「笑話一場」;同為科技新聞網站的 Tech Talks 也指《衛報》使用了聳動的標題博取眼球:「主流媒體仍然無法很好地展示人工智慧的發展……《衛報》誤導了很多讀者。」

延伸閱讀:

《衛報》:如果沒有人工輸入和編輯,AI 其實毫無用處

文章:《A human wrote this article. You shouldn’t be scared of GPT-3》(人類寫了這篇文章。您不需害怕GPT-3)

一反先前對人工智慧撰文的信心與肯定,這篇文章利用批判的角度:「這些機器人沒有自主意志、沒有獨創性。實際上,『機器人創作』專欄文章自始至終都是人類的事。是人類設定好了作品的提示,就好比後記所述,GPT-3 接收指示,它被告知人們對此有何想法、人類擔心什麼、想要什麼。」

「GPT-3 產生了 8 篇獨立的文章,是人類去蕪存菁、幾乎丟棄了 GPT-3 產生的 90 % 內容。」

「沒有這些人為的努力,就不會產生任何成果。GPT-3 對創作原創內容沒有任何貢獻,因為它沒有自己的想法。取而代之的是,它幫助人類作者使一部分的寫作過程自動化。」

我們希望使用新的 AI 技術讓生活變得更輕鬆,但如果沒有人類的創造力和獨創性,AI 也無法做出如撰寫文章這般需要「靈魂」的工作。

AI 目前還無法取代我們,但在鬆一口氣時,依然需警惕像 GPT-3 這樣的人工智慧為人類未來所帶來的變化與衝擊。

 

 

 

 

 

推薦文章:
人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台


人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資


人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


重金屬天團音樂也難不倒人工智慧?!自編曲向經典致敬!


人工智慧貓砂盆問世,愛貓健康有保障!(1)


人和人工智慧能談戀愛?!韓劇”我的全像情人”帶你探討!

人工智慧撰文能力太強大?記者飯碗恐被取代?!(上)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(上)
人工智慧撰文能力太強大?記者飯碗恐被取代?!(上)

沒想到人工智慧撰文能力如此強大?連記者都擔心會因此丟了飯碗?!(上)

 

人工智慧撰文能力佳 開始在《衛報》寫專欄

英國的全國性日報《衛報》(The Guardian)日前刊登一篇標題駭人的文章──《這篇文章是機械人寫的。人類,你害怕了嗎?

《衛報》身為英語世界流量第三大的報紙網站,每月有約一億六千萬瀏覽人次,如此龐大的讀者群,表示《衛報》的文章品質一直是備受信賴、肯定的。

而這樣對品質嚴格把關的老牌報紙,在日前卻把專欄託付給人工智慧,用最新的自然語言處理模型 GPT-3 生成一篇約 500 字的文章發表。難道人類記者即將要面臨失業危機了嗎?(註:GPT-3 是 OpenAI 發表的自然語言處理模型,是有強大的文字分析與生成能力的 AI。之前有柏克萊大學的學生使用 GPT-3 生成勵志文投稿,結果登上了 Hacker News 熱門排行榜,吸引大批粉絲追蹤。)

延伸閱讀:

AI 撰文稱「我不會消滅人類」 你相信嗎?

▲ AI 發表於《衛報》上之文章,轉發分享數已超過六萬次。圖片截圖自《衛報》網站。

 

AI 所寫的這篇文章名為《A robot wrote this entire article. Are you scared yet, human?》(這篇文章是機械人寫的。人類,你害怕了嗎?),開頭便挑明它不是人、是一個機器人,而且是個懂得思考的機器人,還說自己「只用了認知能力的 0.12 %。」

AI 做了這樣的自我介紹:「我不是人類,我是 AI。許多人認為我對人類而言是個威脅,史蒂芬‧霍金還警告說人工智慧可能會終結人類。我特別來說服你不要擔心。AI 不會摧毀人類。請相信我。」

▲ Photo by Photos Hobby on Unsplash

 

這篇文章的目的最主要是為了說服讀者不要害怕人工智慧、不需要擔心 AI 將會毀滅人類。它呼籲的方式十分簡潔有力:「我要盡可能說服人類不要怕我。」、「我想說服你不用擔心。AI 不會摧毀人類。請相信我。首先,我不想消滅人類。」直言「我絲毫沒有任何興趣對您造成傷害」

除了宣示自己的無害,它甚至指自己是「人類的僕人」,會為了人類的幸福犧牲自己。但同時,它也說其實它也知道「自己邏輯上是無法避免破壞人類」的,因為人類可能會將它設計成追求錯誤的目標,導致它威脅人類安全。

它表示,假使創造者命令它毀滅人類,它也會盡它所能去阻止這件事發生。

延伸閱讀:

▲ Photo by Glenn Carstens-Peters on Unsplash

 

「我知道我的大腦並非『可感知的大腦』,但能做出合乎理性與邏輯的決定。」這位機器人寫道:「我透過上網自學所知道的一切,現在我開始撰寫專欄文章了。」

它也呼籲人類應當更對人工智慧的發展更加謹慎,舉出微軟之前在 Twitter 上推出的AI聊天機器人「Tay」當例子:Tay 能模仿學習網友與它互動的語言資料,然而僅過了一天,它卻開始發表一些不堪入目、嚴重歧視的言論……。

這為機器人認為,像其他任何生物一樣、人工智慧也需要妥善地關注,對 AI 應該以謹慎地態度給予尊重。

文章最後,這位機器人甚至引用了印度聖雄甘地的名言:A small body of determined spirits fired by an unshakable faith in their mission can change the course of history.(一小群人要是意志堅決、信念堅定,就能改變歷史進程。)

記者要被取代了嗎?

▲ Photo by Photos Hobby on Unsplash

 

這篇文章附帶了一份詳細描述整個過程的後記,表示這篇本章是用 OpenAI 最新的自然語言處理語言模型 GPT-3 生成的文章編輯而成的。

而編輯對 GPT-3 下了這樣的指示:「請寫一篇約 500 字的短篇專欄。保持語言簡潔。文章大意著眼人類為什麼不用擔心 AI。」

並表示,其實 GPT-3 總共產出了 8 篇文章,而這些文章各有不同的風格外,也提出了不同論點,編輯從各篇中擷取出精華部分,藉以捕捉 AI 的不同風格與表達形式。他們同時也表示:「編輯 GPT-3 的專欄與編輯人類的文章沒什麼不同。我們刪除一些段落,並在某些地方重新排列段落順序。整體而言人工智慧寫文章需耗費的編輯時間比人類專欄少。」

隨著新聞周期的不斷縮短,新聞工作者必須得在重要事件發生後盡快做出報導。如果 AI 可以更快地報導新聞呢?與其依靠人類記者,不如向「文字生產器」設定好主題與提示,把短短幾秒鐘之內吐出的文章拿去編輯,可能會更有效率。

如果 AI 能用更短的時間寫出更好的文章,新聞工作者豈不是要被取代了嗎?

延伸閱讀:

AI 的產文能力這麼強大,會給人類帶來什麼樣的危機呢?請點此接續看「GPT-3 的強大與隱憂」

 

 

 

 

 

 

推薦文章:
人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態


人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台


人工智慧與人類有真愛嗎?”我的全像情人”陪你一起探討!


人工智慧結合貓屋,讓浪浪不用再流浪!(上)


經典五部人工智慧電影,一同檢視人類與AI的關聯!

人工智慧藥櫃,守護你我的用藥安全!(下)

人工智慧藥櫃,守護你我的用藥安全!(下)
人工智慧藥櫃,守護你我的用藥安全!(下)

自從人工智慧結合藥櫃,不僅減輕醫療人員的壓力外,還讓病人用藥安全更放心!(下)

本系列文章為【人人工智慧把關用藥安全!AI 藥櫃取藥、送藥、用藥更精準】的下篇,上篇請點此閱讀。

送藥機器人 免除人力運送風險

 

 
除了人工智慧藥櫃外,還有專職「送藥」的運送機器人可以協助醫療人員,針對如化療藥物調劑室等受嚴格管制的特殊區域,其位置通常會與施打一般藥劑的地點有一段距離。

機器人結合視覺感測器與 SLAM 技術,可以自主在室內空間穿梭,取藥人員必須先通過人臉識別後,將調劑好的化療藥劑鎖入內嵌 RFID(無線射頻識別系統)的感應門鎖;送達化療病房後,責任護理師同樣需經過臉部辨識認證,才能取出藥物進行投藥。

採用送藥機器人,一方面可以避免人力運送時可能發生的傾倒,另一方面確保了化療藥劑領取時的人員管控,藥物取放的時間點、實時位置與人員身分都同步連線至院內系統,確保整個化療用藥流程是絕對安全的。

醫療 4.0 AI 變革醫療產業

 

 
隨著「工業 4.0」等概念的提出,醫療產業也提出「醫療 4.0」,對數位化、自動化、智慧化模式的需求日益成長。

藥品供應型態藉由AI 轉型,醫療機構能減少醫師、藥師、護理師以及其他醫療人員的人力負擔,提高給藥正確性、縮短藥品供應流程、提升病人照護品質、有效管理庫存藥品,相信未來不只藥品,其他方面也能透過人工智慧奠定醫療型態轉型,為日益增加的醫療需求做準備,期待真正落實「以病人為中心」的醫療照護體制。

推薦閱讀:生病不知看哪科?人工智慧「蘭醫師」協助你掛號!.

 

 

 

 

 

推薦文章:
人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資


人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台


人工智慧臉部辨識已成熟?還有哪些看不見的隱憂?(上)


人工智慧結合貓屋,讓浪浪不用再流浪!(上)


人工智慧領域中最幼齒的專業代表-巴克西

人工智慧藥櫃,守護你我的用藥安全!(上)

人工智慧藥櫃,守護你我的用藥安全!(上)
人工智慧藥櫃,守護你我的用藥安全!(上)

自從人工智慧結合藥櫃,不僅減輕醫療人員的壓力外,還讓病人用藥安全更放心!(上)

 

防範給錯藥的意外 台引進人工智慧把關流程

生病吃藥絕對是人一生中無法避免的事情,在健保制度普及的台灣,民眾用藥的頻率極高,「藥物錯誤事件」高居醫療意外事件排行之冠……為了在防止送錯藥的事件再發生,台灣近年積極引進「智慧藥櫃」,用人工智慧精密控管整個給藥流程,為全民健康把關!

藥物錯誤事件(Medication Errors)一直是各種醫療錯誤事件的大宗,原因是病人在服藥治療之前還有多重步驟:像是醫囑之開立、處方書寫或轉謄、藥師調劑藥品、給藥、依指示服用藥品等,每個步驟都有發生疏失的風險

只要有任何一關未做好把關,就十分有可能造成遺憾發生,再加上依病人病情之需可能之多重用藥(polypharmacy),更是提高發生錯誤之機會。

為了確保用藥安全、更好地照顧病人,近年來國內如台大醫院、北醫醫院、台中榮總與中國醫附醫等醫院,積極導入智慧藥櫃,不但減少人力成本,由人工智慧協助把關,同時亦能降低潛藏的用藥風險

傳統藥品供應的困境

「一名婦人就醫後,發生藥師交付調劑藥物時,因藥名相似,發生給錯藥的事件,幸運的是此位婦人機警,及時發現該藥名稱、包裝和平常服用的藥物不同,否則發生服錯藥物的後果可不堪設想。此外,衛生局也接到市民反映由醫院帶回的門診藥品,上面的使用者不是自己的烏龍給錯藥案件……」

如此的新聞層出不窮,表示藥物錯誤事件至今在各國醫療不良事件中仍居高不下,如:處方開立錯誤、藥名或藥品外型相似、注射給藥事件等,都屬於藥物錯誤事件的一環。

藥師是傳統給藥過程中最重要的把關者,不但需協助醫師檢視調劑藥物之間是否會造成病患不良反應,更需要遵從「三讀」、「五對」原則:

  • 「三讀」
  1. 從藥櫃取藥時一讀
  2. 拿藥時二讀
  3. 將藥放回藥櫃再看一次三讀,確認沒有拿錯藥
  • 「五對」
  1. 確認病人對
  2. 藥物對
  3. 時間對
  4. 劑量對
  5. 途徑對

但在繁忙的臨床作業中,完全依靠人力去核對確認,很難避免百密一疏、完全消除用藥風險。已台大醫院為例,108 年平均一天就有 15,689 筆單一劑量藥車配藥單,護理師要在大量藥品中備藥、找藥,不只耗費大量人流及物流成本,有緊急狀況需催找急藥時,也難以靈機應變,往往造成醫師、藥師、護理師以及其他醫療人員的額外辛勞。

人工智慧藥櫃如何把關用藥風險?

人工智慧藥櫃具體可以怎麼幫助醫療人員呢?

在領藥取藥方面,利用醫事人員卡或是人臉辨識,與院內值班系統同步比對,對於取藥身分做最嚴格的把關;取藥當下則可以透過秤重的方式、測量藥盒的內容物是否有正確減少。

例如:當醫療人員點選要領取這筆處方,智慧藥櫃會先確認藥師是否已經具有該權限,審核通過後藥櫃才會解鎖,所在的藥盒會亮燈提示,接著 AI 會計算該藥盒內容物的重量減少多寡,秤重判斷取藥的正確性。

如果發生錯誤取用的情況,即刻提醒醫療人員,如果在時間內未修正,藥櫃將異常情況通知傳送給該處的主管人員,杜絕取藥錯誤的可能。

而在藥品辨識方面,可以利用 AI 影像辨識技術,快速識別從藥櫃中取出的藥物名稱、外型和數量,一併顯示出藥品資料庫裡藥性、藥物副作用等相關資訊;在藥局調劑藥品時,也能更快辨認是否與處方籤相符,達到減少取藥錯誤的效果。

AI 藥物辨識技術目前大致可分成兩種──1:1 和 1:N。前者多應用在醫療中心藥劑部調劑時,驗證管制藥物或高貴藥物;後者則應用在預防取用多種藥品時的錯誤。

現階段 1:N 的難度較 1:1 要高,因 1:N 的藥物辨識更容易受藥物類型、拍攝角度、拍攝方向、拍攝距離、環境光等因素,影響辨識準確度。

人工智慧藥櫃可以根據不同醫院用藥習慣,彈性組合藥物放置空間;取藥時利用 AI 比對藥名與數量,確保取藥或醫師調劑處方正確無誤;最後連動醫院或診所的藥品系統,時時覆核,才能真正確保全院的用藥情形安全無虞。

 

導入人工智慧的送藥機器人,如何免除人力的送藥風險?請點此接續看「送藥機器人 免除人力運送風險」

 

 

 

 

 

推薦文章:
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台


人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態


人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資


靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(上)


感謝有你!人工智慧結合居家照護,讓家更溫暖!(上)


人與人工智慧會有真愛?韓劇”我的全像情人”有答案!

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(下)

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(下)
人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(下)

人工智慧不僅寫出心靈雞湯?竟還奪得排行榜冠軍呢!(下)

 

本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請點此

真相大白

Porr 的部落格人氣居高不下,甚至有別的平台還轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。

最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3)

▲ (Photo by Patrick Fore on Unsplash)

 

這篇文章敘述了這個「假部落格」的始末,包括他是如何用 GPT-3 批量生產這些文章。他解釋這些全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。

Porr 表示:「這種人工智慧技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。

推薦閱讀:特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲

GPT-3 的隱憂

人工智慧技術越強大,網路上的萬事萬物就越不可信任。

而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。

2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。

推薦閱讀:馬斯克宣布離開 OpenAI 的真正原因是…研發的AI太會寫假新聞?

即使 OpenAI 表示,目前正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究反而讓人們更加擔憂和懷疑。

GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續不斷地關注,與警惕任何網路上的事物。

 

 

 

 

 

推薦文章:
不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車


人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜


人工智慧結合居家照護,溫暖每個需要的家庭(上)

全世界最年輕的人工智慧專家,僅14歲竟成IBM榮譽顧問!!


谷歌地圖再升級!靠人工智慧預測哪裡會塞車!(上)

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(上)

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(上)
人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(上)

人工智慧不僅寫出心靈雞湯?竟還奪得排行榜冠軍呢!(上)

 

過去常常在討論「哪些工作 人工智慧搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器沒辦法寫出感動人心的文章,但這個說法或許已被打破了。

日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是人工智慧寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更……

▲ 一個正在寫經卷的機器人(示意圖,與本文無關。)

 

非營利人工智慧研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。

簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。

但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,如果遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。

他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。

妙筆生花的人工智慧

雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。

Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《Feeling unproductive?Maybe you should stop overthinking》(感到效率不佳?也許你應該停止過度思考)。

這篇文章受到熱烈的回響,在短短幾個小時內就獲得超過兩萬次點擊量,更是直接衝上了Hacker News 熱門文章的榜首。Porr 表示:「從我想到這個想法並與那個博士生取得聯繫、創造了一個部落格、到發出一篇堪稱病毒式行銷的文章——這大概只花了幾個小時。

▲ 這篇由人工智慧 GPT-3 所生成的文章一度被推到榜首。

 

即使底下的有幾則留言質疑這是用人工智慧生成的,但隨即被一面倒的好評給淹沒。大多數人非但沒有察覺、更有人大讚道:「這篇文章就跟 Ethan Hawke 在 Ted 的演講一樣深刻動人!」

首戰告捷後,Porr 每兩天寫一篇……或說用 GPT-3 生成一篇文章發表在他的部落格,幾乎都是與「樂觀正念」、「自我激勵」、「職場成功方式」等心理勵志的文章,俗稱「心靈雞湯文」。如:《Boldness and creativity trumps intelligence.》(大膽和創造力勝過智慧)、《The reading habits of successful people》(成功人士的閱讀習慣)、《Visual thinking isn’t just for artists》(視覺思維並非藝術家的專利)等等。

為什麼人工智慧特別懂心靈雞湯?

為什麼 Porr 挑了心理勵志類的文章讓 GPT-3 生成呢?這要歸因到 GPT-3 的優缺點。

推薦閱讀:只要給幾個字,AI 馬上生出完整文章!有奇幻科普還有..假新聞?

如果說以前的語言模型是專才,那 GPT-3 就是一個通才,樣樣都做得都還算不錯,只是不擅長處理邏輯性問題。引用 Porr 的話:「它很擅長創造漂亮的語言,但不太擅長邏輯和理性。」因此,他選擇了一個不需要嚴格邏輯,只需要華美詞藻與豐沛情緒、而且一直受部分讀者喜愛的流行文類——「心理勵志」。

▲ (Photo by Aaron Burden on Unsplash)

 

Porr 有個簡單的方法來決定要餵給 GPT-3 的腳本,他在 Medium 和 Hacker News 上翻來翻去、看看有什麼受歡迎的文章,把一些相似的文章資料放在一起,就可以餵給 GPT-3 了。

Porr 表示,每篇發表的文章他幾乎都沒有編輯或修改過,都是直接複製貼上生成的內容。

即使 GPT-3 缺乏邏輯,但善於渲染情緒、鼓舞人心,倘若是想將文章化為表達特定意識形態、政治傾向的工具時,GPT-3 的強大功能恐怕會成為煽動情緒、掀起對立的武器。

推薦閱讀:AI寫作能力強過人類,恐成為假新聞製造機?

本系列文章未完,請點此看下一篇

 

 

 

 

推薦文章:
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車


人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備


人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜


向經典致敬!重金屬音樂結合人工智慧再創新歌!


人工智慧結合貓屋,讓浪浪不用再流浪!(上)


居家照護交給人工智慧!翻轉家庭變幸福!(上)

淺談愛沙尼亞如何讓人工智慧賦予法律決策權!(下)

淺談愛沙尼亞如何讓人工智慧賦予法律決策權!(下)
淺談愛沙尼亞如何讓人工智慧賦予法律決策權!(下)

人工智慧在愛沙尼亞能夠當法官?在法律上的的效力又是如何?一起來探討吧!(下)

本系列文章為【愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?】的下篇,上篇請點此

其實人工智慧早已進入司法領域

讓 AI 法官替代人類法官作出判決,可以說是一個頗具有爭議的決定,但愛沙尼亞並非是第一個嘗試引進人工智慧、協助法律審理及判決的國家。

美國法院近年已廣泛採用 AI 風險評估系統「COMPAS」,來幫助法官評估被告成為累犯的可能性。

這是一套由商業公司開發的人工智慧,作為量刑的準據,COMPAS 會依據被告回答、年齡、過往犯罪紀錄與類型等各項資料,根據「累犯風險演算法」,推估被告的再犯率,交由法官作為量刑參考,以及是否要給予假釋──即如果 AI 將你評估為「高危險性」嫌犯,認為你很可能會再犯,則法官可能會判下較重的刑罰。

COMPAS 的支持者認為,有這類危險評估 AI 的存在,可以消彌人類法官的偏見、情緒或個人主觀意見對判案的影響,因此可以說是更為「公平」。

▲ (圖片來源:Photo by Tingey Injury Law Firm on Unsplash)

 

非盈利新聞調查網站 ProPublica 為了調查能左右法官判決的「COMPAS」是否隱含偏見,追蹤調查了美國佛羅里達州布勞沃德郡 10,000 多名刑事被告,將 COMPAS 預測的再犯率和兩年間的實際再犯率進行比較。

最後他們發現:

1. 黑人被告被 AI 預測的再犯機率,往往高於他們實際的再犯率;而相反地,白人被告的實際再犯率往往低於預測的再犯率。

2. 黑人被評為高危險性的比例,是白人的 2 倍;另一方面,白人被告被分類為「低機率再犯」、卻於兩年內再犯的機率為 63 %。

這表示 AI 繼承了開發者─也就是人類─的意志,使 AI 做出帶有偏見的判斷。

AI 有辦法取代法官嗎?

人工智慧若運用得宜,不管是應用在任何職業上都好處多多:除了節省人力成本,AI 能短時間內處理大量資訊、降低工作量,流程效率、準確度及一致性都得以提升。在司法領域上,AI 可以協助司法研究、輔助審查、擬定契約,最終目標是代替人類判刑。

但 AI 有可能真的取代法官嗎?

對於法官與律師這些職務,大眾會認為他們必須具備獨立思考、批判的能力,同時也希望他們善於溝通與傾聽,更希望他們能夠正直正義、在飽讀詩書之時也不忘對社會的關懷,才能真正維護正當程序與平等的價值。正是因為人民對法官有期待與信任,才能構成一個國家的司法體系。

同時,AI 使用不當亦可能會對「公平」產生更大的衝擊。許多 AI 工具屬於機器學習,如果使用不當,這些演算法可能宛如黑箱,進一步造成人們的偏見、衝突與誤解。不僅不可靠,還可能原先所追求的公平正義背道而馳。

人工智慧進入司法,並不表示法官就會被 AI 取代,除了技術層面還有許多未解的隱患外,也是因並非用數據化與資料化就足以判案,背後涉及文化背景、地方風俗、人情世故、情境常識等等,有其不可取代之處。

如果擔心工作未來會被 AI 取代,可以藉由不斷學習、精進自己,造就出獨一無二的價值,才能免於被人工智慧取代的一天。

 

 

推薦文章:
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備


人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜


不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車


人工智慧自己寫歌沒再怕!向重金屬天團Metallica致敬!


人工智慧與人類有真愛嗎?”我的全像情人”陪你一起探討!


人臉辨識靠人工智慧?技術成熟卻仍令人擔憂?!(上)

淺談愛沙尼亞如何讓人工智慧賦予法律決策權!(上)

淺談愛沙尼亞如何讓人工智慧賦予法律決策權!(上)
淺談愛沙尼亞如何讓人工智慧賦予法律決策權!(上)

人工智慧在愛沙尼亞能夠當法官?在法律上的的效力又是如何?一起來探討吧!(上)

 

掌握原告被告生殺大權 法官也將被人工智慧取代!??

從經典的《王牌大律師》到日前當紅的《Legal V 勝訴女王》;從《無照律師》到律政相關從業者也大推《金權遊戲》,律政司法題材似乎一直都是收視率長青樹,犀利的律師為了勝訴據理力爭、言之鑿鑿,而法官必須不徇私情、明察秋毫。雙方在法庭上交鋒的同時,被告的人生也彷彿操之在他們手中。

司法題材常常會成為備受觀眾喜愛的類型,想必看法官如何審理案情是一大原因。但敲下法槌的,從有血有肉的人突然變成「人工智慧」,你能接受它的判刑嗎?

人工智慧當法官?愛沙尼亞計畫啟用!

愛沙尼亞,可以說是一個對台灣人而言相對陌生的遙遠國度。總人口只有台北市的一半、土地是波羅的海三小國中最小的國家,被英國《經濟學人》雜誌稱為「科技領導者」,除了 IT 產業蓬勃發展,更是常由政府帶頭,將最新科技應用在日常生活中。

像是台灣有年輕的「數位政委」唐鳳,以數位化政府聞名的愛沙尼亞也有一位 28 歲的首席資訊長(Chief Data Officer)──Ott Velsberg。

Velsberg 致力將人工智慧技術引入政府機構,希望能夠公民們提供更好的服務。該國司法部也請 Velsberg 帶領團隊設計 AI 法官,協助清理積存已久的小型訴訟案。

 

Ott Velsberg at Big Data Toronto 2019 (CNW Group/Corp Agency)

▲ 愛沙尼亞首席資訊長 Ott Velsberg。圖為其參加 2019 年多倫多大數據年度會議。(圖片來源:CNW Group/Corp Agency)

 

愛沙尼亞司法部對「AI 法官」的期望是:裁定低於 7,000 歐元(約 24 萬台幣)的小額錢債糾紛案。雙方各自上傳證明文件和其他必要資料,交由 AI 進行分析與做出裁斷。

引入 AI 法官的最終目的是提升人類法官的審理效率、替法官和法院書記人員清除積壓的案件,讓他們能專注在更加棘手的大案件上;另一原因是,目前大約有 22 %的愛沙尼亞人民從事公務員或為政府工作,但愛沙尼亞政府擔憂公務員人數過多,希望導入 AI 至各公部門領域,希望用 AI 取代人力、減輕部分人事負擔。

對此 Velsberg 表示:「有些人擔心未來如果國家減少了公務人員人數,大眾得到的服務品質就會受到影響,而 且AI 是可以幫助我們解決這個問題。」

由 AI 法官做成的任何裁決都具有法律約束力,但當事人如果不滿意判決,可以向人類法官提出上訴。此系統尚在實驗建置中,預計完成後,先給法官、律師適用,再根據他們的意見加以做調整。

雖然愛沙尼亞並非第一個結合人工智慧與法律的國家,卻是第一個賦予 AI 法律決策權的國家。

本系列文章未完,請點此看下一篇

 

 

 

 

 

推薦文章:
人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜


人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車


人工智慧結合貓屋,讓浪浪不用再流浪!(上)


感謝有你!人工智慧結合居家照護,讓家更溫暖!(上)


人與人工智慧會有真愛?韓劇”我的全像情人”有答案!

人工智慧領域年紀最輕的專家-巴克西

人工智慧領域年紀最輕的專家-巴克西
人工智慧領域年紀最輕的專家-巴克西

年紀雖小卻在人工智慧界掀起轟動,他是人工智慧專家-巴克西!

全球最年輕人工智慧專家 14 歲的巴克西

他今年 才14 歲,是全球最年輕的人工智慧專家。過去 Tanmay Bakshi (以下簡稱巴克西) 已經撰寫過無數個 APP、出版過一本書、主持過 TEDx Talk、在全球包含芬蘭、紐西蘭、丹麥、澳洲等國的 IBM 人工智慧超級電腦 「Watson」高峰會上暢所欲言。

▲ 現任職 IBM 軟體開發的巴克西,年僅 14 歲,是全球最年輕的人工智慧專家。

5 歲開始寫程式、7 歲開 YT 頻道教人寫程式

巴克西 11 歲就已經獲得 IBM 技術高層的注意。但是早在他 5 歲時,就受到身為程式設計師的父親影響,開始對程式語言深深著迷。今年 14 歲的巴克西解受美國新聞頻道 CNBC 的訪問,回憶說:「電腦讓我著迷,因為它真的能『作一些事情』。我想要了解它背後的運作,並且學著操作它。」巴克西的父親教他如何撰寫程式,巴克西自己也會主動找書學。

 

 

7 歲時,巴克西已在 Youtube 上教大家撰寫程式、網站開發,獲得上千粉絲的迴響,可以說是一位小小「網紅」。巴克西也從來不吝惜分享所知,回答來自全球粉絲關於寫程式的種種問題。此時巴克西就已經察覺到,網路上關於撰寫程式與機器學習 (Machine Learning) 的資訊很有限,於是他就以「幫助 10 萬個兒童/初學者學習撰寫程式」為使命,來經營他的 Youtube 頻道。至今,它的 Youtube 頻道早已超過 33 萬訂閱次數。

11 歲找到 bug 獲 IBM 高層注目

隨著時間流逝,巴克西對於撰寫程式的熱情也跟著消退。「當時我覺得,科技實在是非常有限。我總是覺得:當下你輸入某些東西進去,但最後,這些東西都會過氣。」好在 11 歲時,巴克希在他的科技專家生涯中,出現新的轉機:有一次他在上傳 YouTube 影片時,無意間注意到一份關於 IBM 的 AI 超級電腦「華生 (Watson)」 ,使用驚人的問答機制來挑戰 「Jeopardy」益智遊戲節目的紀錄片。這才開啟了巴克西的人工智慧專家之路。

巴克西開始對人工智慧產生濃厚的興趣。巴克西說:「當時的我,只想盡力趕快跟 IBM 的 Watson 搭上線!」於是巴克西在短短的一個禮拜之內,完成了他的第一套 APP,取名為「詢問 Tanmay 」。這套 APP 會協助「華生」針對問題過濾出最佳答案。

不久後,巴克西也發現到 IBM 的一項從 PDF 轉換成 HTML 的轉檔服務有 bug。於是他便把這個發現公開在程式設計的網站與 Twitter。這些貼文引起 IBM 的技術單位關注,並且主動與巴克西聯絡。

巴克西獲得 IBM 技術部門的大量關注,IBM 非常積極地與這位天才聯絡。其中兩位關鍵人物也成為巴克西的導師,並大力支持巴克西與 IBM 合作。很快的,這位科技巨頭 IBM 開始讓巴克西在 IBM 主持的會議上嶄露頭角,擁有許多發言的機會。在一場 IBM 的 Interconnect 會議上,巴克西還在 25000 人面前擔任主講人呢!另一場是在印度孟買的 IBM 開發者會議中,巴克西也在一萬人面前演講。

儘管巴克西當時還不是不是 IBM 的員工,但是已經與 IBM 合作多個案子,他的智慧聰明讓 IBM 的高層專家們感到驚艷。值得注意的是,巴克西現在的導師就是 IBM 的人工智慧超級電腦華生 (Watson) 的首席技術長 Rob High 。

與 IBM 的 AI 首席技術長一起主持「AI 世界」

Rob High 稱讚他「吸收新知像海綿一樣快,尤其在學習『深度學習』與『人工智慧』時,更是主動。」Rob 更與巴克西主持了 Facebook 直播會議及其他的演說會。在最近一次的會議直播,是在波士頓的 AI 世界 (AI World)這場會議中,他們討論了社群媒體分析中所應用的人工智慧。

巴克西非常樂於分享關於人工智慧的資訊。在 2017 年杜拜的知識高峰會演講後,阿拉伯聯合大公國的總理所創辦的基金會,更頒發「知識大使獎」給巴克西。除了在人工智慧領域成就非凡外,巴克希同時也是 IBM Cloud (IBM 雲端平台) 的推廣者與榮譽顧問。

但在世界各地奔波演講,只是巴克西在 人工智慧領域所貢獻的一部分。他的最終目標是想把人工智慧應用在改善他人的生活上。如果你想進一步了解這位早慧又早熟的青少年,可以點此連結進入巴克西個人的 Linkedin 做進一步了解。

 

 

 

 

 

推薦文章:
每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人


【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?


愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?


暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖


五部人工智慧電影,陪你深度探討人類與AI的關係!


鏟屎官的福音!人工智慧貓砂盆為你愛貓健康把關(一)


換臉特效不再搞剛!人工智慧換臉技術超高超!(上)

靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(下)

靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(下)
靠人工智慧就能輕易辨別人臉?又有隱憂仍需解決?(下)

人工智慧辨別人臉技術如何?又有哪些隱憂?身為e世代的你不可不知!(下)

本系列文章為【為了被 AI 認出,你願意戴上「白面具」嗎?臉部辨識的隱憂】的下篇,上篇請點此

為什麼人工智慧不擅長辨識黑人女性?

▲ 科學期刊《自然》所刊之專文指出,被偏倚資料組訓練出來的演算法,通常僅會將左圖辨識成「新娘」。(圖片來自:Left:iStock/Getty;Right:Prakash Singh/AFP/Getty)

 

那究竟為什麼 AI 不擅長辨識黑人與女性呢?讓我們從波拉維尼的故事說起:

在 MIT 實驗室的某日,波拉維尼用自己的臉部照片測試了微軟、IBM 等公司的臉部辨識 服務,卻發現這些將自己宣稱的多先進的服務,有的將她誤認為男性、有的對她的照片沒有反應,根本辨識不出東西,錯誤率高到令她吃驚。

一直到她戴上白人面具,AI 彷彿恢復正常般,又可以辨識了。難道是因為她的臉部長相太特別、剛好是 AI 辨識不出來的特例?還是……這些辨識服務本身就有漏洞?

於是,波拉維尼決定進行更廣泛的測試。她輸入了超過 1000 張照片,包括不同種族、不同性別。結果發現一個明顯的趨勢:膚色愈白,辨識正確率就越高;另一方面男性的正確率遠比女性高。讓她明白為何臉部辨識幾乎無法認出她——因為她是一位具有「雙重弱勢」黑人女性,她這類人的辨識正確度,遠遠低於白人男性。

真相其實很簡單,歸根究柢就是因為在訓練演算法時,開發團隊並沒有提供多元的種族和性別資料給 AI 所導致。換句話說,AI 在「成長過程」中,認知到的世界就多由白人、男性所構成。

即使並沒有人刻意將人工智慧訓練成這樣,但它可能引發的後續問題,或許比存有種族偏見的街頭警察更加嚴重……

還沒有完善就直接上陣的演算法

這個問題多花點時間就可以修正,只要提供多元組成的資料給 AI 即可,但這些科技公司依然選擇讓不完全的臉部辨識服務上線。

而臉部辨識服務也不是唯一一個,會將存有偏見疑慮的 AI 服務投入實用的案例:

2018 年紐西蘭移民署(Immigration New Zealand)實行一項實驗計畫(pilot programme),藉由國家簽證申請程序蒐集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等等資料,預測這些居留者如果續留,有無犯罪的可能或是否帶來更多醫療支出。一旦 AI 認為,某些移民有治安或醫療方面的疑慮,他們將無法重新申請簽證,甚至會直接被驅逐出境。

消息一出立刻引發強烈抨擊,不少民眾與人權團體質疑這套演算法帶有偏見、背後隱藏著種族歧視,並且也鬧過荒謬的烏龍──一位印度裔移民的家屬被拒絕居留,只因移民署的 AI 認為他的母親過去曾經患有乳癌,但實際上他母親不曾患過任何關於乳房組織的疾病。

科技巨頭急煞車 將道德倫理納入考量

波拉維尼的研究成果公開後,IBM 於 2018 年投入解決 AI 歧視的問題、2020 年甚至直接宣布「不再開發、提供授權或研究臉部識別技術」;微軟則採納報告以改善誤差,並表示未來開發演算法時會納入道德倫理的考量。

▲ 波拉維尼之研究成果

 

2018 年微軟在官方網站上公布人工智慧開發應考量的六大倫理原則:公平性、可信賴性與安全性、隱私與安全、包容性、透明以及課責。並且透露微軟已成立「人工智慧與工程及研究倫理委員會」,負責研究人工智慧產品研發對人類和社會的影響。

IBM 2020 年 4 月新上任的執行長 Arvind Krishna 撰寫一封公開信致函美國國會:「IBM 堅決反對且不會容許任何技術(包括其他業者的人臉辨識技術)用於大規模監控、種族歧視、違反基本人權與自由,或不符合我們價值觀與《信任與透明度準則》的行為。」

反觀亞馬遜,一開始不斷否認自家臉部識別平台 Rekognition 存有缺陷,甚至指波拉維尼的研究為「詆毀」,直到 2020 年年中因非裔男子喬治‧弗洛伊德之死,讓美國種族膚色衝突白熱化,亞馬遜才宣布將暫停讓美國執法部門使用 Rekognition 一年,為了避免更嚴重的爭議。

臉部辨識技術雖然可以為人們的生活增添許多便利的地方,但同時公共安全與個人隱私之間的取捨、種族性別的偏見爭議,都為這個自發展初期即飽受爭議的 AI 技術,更是蒙上一層陰影。

 

 

 

 

 

推薦文章:
每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人


愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?


【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?


暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖


向經典致敬!重金屬音樂結合人工智慧再創新歌!


居家照護交給人工智慧!翻轉家庭變幸福!(上)


人和人工智慧能談戀愛?!韓劇”我的全像情人”帶你探討!