人工智慧編程工具Codex神助攻!讓你寫程式真輕鬆!(下)

人工智慧編程工具Codex神助攻!讓你寫程式真輕鬆!(下)
人工智慧編程工具Codex神助攻!讓你寫程式真輕鬆!(下)

自從有人工智慧編程工具Codex,寫程式真的變得好輕鬆!(下)

 

本文為下篇,上篇請看此連結

OpenAI:共同維持單純生態讓程式社群「產生更高價值」

當被問及這些抱怨時,Greg Brockman回答:「新技術即將到來,確實需要這場辯論,即使會有別於過往社群的意見,我們將接受反饋並以不同的方式做事。」他認為人工智慧社群始終受益於Open AI的工作。「這會對生態系統有很大的價值,歸根結底,這些技術可以重塑我們的經濟,為所有人創造一個更美好的世界。」Brockman解釋道。

 

Codex 也肯定會為 OpenAI 及其投資者創造價值。2015年公司以非營利實驗室的身份起步,為了吸引外部資金,它在 2019 年轉為「利潤上限」 (capped-profit)模式,儘管Codex最初是作為免費API發布的,但 OpenAI 預期未來將會對使用者收費。

 

OpenAI表示它不想使用Codex構建自己的工具,因為它其實更適合改進人工智慧核心模型。Brockman說:「我們意識到如果追求成為任何一項工具,就會切斷任何其他路線。作為一家初創公司,可以選擇最擅長一件事。毫無疑問,此系統正為所有模型製作更好的版本。」

 

從 Codex 展示案例中猜測語言喜好

雖然 Codex 聽起來非常令人興奮,但在真正的工程師掌握之前很難判斷它的全部功能。但即使在不是工程師的情況下,確實看到 Codex 的運行情況,並且對人工智慧有一些想法。

 

OpenAI 的 Brockman 和 Codex 負責人 Wojciech Zaremba 線上展示使用 Codex 創建網站遊戲,Brockman 在 Google 圖片上找到一個人的剪影,告訴 Codex 在貼上 URL 前「從頁面添加這個人的圖像」,剪影隨後出現在視窗上,然後 Brockman 修改它的大小,說道:「讓這個人變大了一點」、「現在可以用左右箭頭鍵控制它」。

OpenAI 的 Brockman 使用 Codex 創建網站遊戲 ,使用口語來「使喚」Codex 寫出相應代碼。

 

人工智慧藝術與科學般的對 Codex 下達指令

這一切都非常順利。人影開始在視窗上晃來晃去,但很快就遇到一個問題:它一直在視窗外消失。為了阻止這情況,Brockman額外下達指令:「不斷檢查這個人是否離開頁面,如果是就把它放回頁面上。」這阻止它移出視線,但很好奇指令需要多麼精確。我建議可以嘗試不同的方法:「確保此人無法退出頁面。」這這也有效,由於 Brockman 和 Zaremba 無法解釋的原因,它還改變圖形的寬度,將其壓扁在視窗上。

 

雖然此人工智慧應用實例很好的展現出來,同時也說明程式有一定的侷限性。OpenAI 並沒有聲稱它一定完全能夠讀懂人的大腦、完美的執行每個指令。相反地,它需要深思熟慮以及更多的反覆嘗試。Codex不會在一夜之間將不會撰寫程式碼的人變成專家工程師,但它肯定比任何其他程式語言更容易明白與學習。

 

 

 

 

推薦文章:
自家的人工智慧太會寫假新聞!馬斯克嚇到離開OpenAI?


給人工智慧幾它給你完整文章!奇幻、科普、假新聞任你挑


人工智慧寫文太療癒,奪排行榜冠軍!學霸敲碗求更新


人工智慧寫「不想消滅人類」登《衛報》……記者將被 AI 取代?


AI技術導入東奧!7個黑科技你不能不知道!(一)


蘋果用AI把關兒童情色照,卻遭質疑沒隱私!(上)


心裡苦卻說不出?人工智慧24待命安慰你的心!(上)

人工智慧編程工具Codex神助攻!讓你寫程式真輕鬆!(上)

人工智慧編程工具Codex神助攻!讓你寫程式真輕鬆!(上)
人工智慧編程工具Codex神助攻!讓你寫程式真輕鬆!(上)

自從有人工智慧編程工具Codex,寫程式真的變得好輕鬆!(上)

 

目錄

1. 人工智慧發展太快!Codex可將英文翻譯成程式碼

2. Codex:能將人話翻成Python等10多種程式碼的人工智慧應用

3. 程式設計中「最乏味」的關鍵步驟,人工智慧一把罩!

4. Codex 恐延續 Copilot 的代碼版權爭議

5. OpenAI:共同維持單純生態讓程式社群「產生更高價值」

6. 從 Codex 展示案例中猜測語言喜好

7. 人工智慧藝術與科學般的對 Codex 下達指令

 

人工智慧發展太快!Codex可將英文翻譯成程式碼

還在苦惱不會寫Python、Java這些程式碼,落後於其他人嗎?現在隨著人工智慧技術越來越強,未來程式設計不再是需要編寫複雜的代碼,甚至只要會說英文就能 coding!

 

馬斯克創辦、致力於人工智慧的研發公司 OpenAI 日前發佈一款新的機器學習系統「Codex」,可以將英語直譯成程式語言。期望這樣的人工智慧應用,能讓程式設計變得更簡單便利,為的是讓更多人能共同參與。

 

Codex:能將人話翻成Python等10多種程式碼的人工智慧應用

OpenAI 的 CTO 兼聯合創辦人 Greg Brockman 和 Codex 負責人 Wojciech Zaremba 線上展示 Codex 的各式用途,揭開它神秘的面紗:簡約的介面、能夠將自然語言翻譯成 Python、JavaScript、Go、Perl、PHP、Ruby、Swift 和 Shell 等 10 多種主流程式語言的能力。

 

Codex 就像是一位資料科學家,可以將資料下載、歸納後予以分析、製作圖表。還可以把人話翻譯成電腦程式碼,實現多種程式語言之間的互譯,更進一步建構出基礎的網站和遊戲。

 

舉例來說:使用者在指令欄中,使用英文「寫」出一個上方有大標、側邊有導覽列的網頁後,Codex 便會將此指令翻譯為完整的程式碼。雖然此系統並非萬無一失,操作執行時仍需要耐心,但已證明可為不同領域帶來更佳效率與價值。

 

程式設計中「最乏味」的關鍵步驟,人工智慧一把罩!

OpenAI 的 CTO 兼聯合創始人 Greg Brockman 說他們將 Codex 這項人工智慧定義為「增加工程師的人數」。他說:「編寫程式語言有兩個部分:首先,你必須認真思考、理解一個問題;之後將這些需要執行的片段——無論是函數還是API——轉譯成現有程式語言。」而後者的「轉譯」步驟是最乏味、但也是最關鍵的,這時就只能請出人工智能「Codex」為工程師消除繁重的工作。

 

Codex 恐延續 Copilot 的代碼版權爭議

OpenAI 使用早期版本的 Codex 為 GitHub 構建了一個名為 Copilot 的工具,這是一個微軟的原始碼儲存庫(因為微軟本身就是 OpenAI 的密切合作夥伴)。

 

Copilot 類似 Gmail 中輸入內容時修正拼字和文法錯誤的工具,藉此能夠提供開發者整行或整個函式的程式碼編寫、修正建議。不過 OpenAI 的新版 Codex 更加先進靈活,除了 coding 外,甚至還可以自行創建程式碼。

 

Codex 建立在 OpenAI 的語言生成,延伸 GPT-3 的模型,訓練資料包含自然語言,以及數十億的開放原始碼。GPT-3 本身就擁有閱讀、生成人類自然語言的能力,而 Codex 更是進一步地優化 GPT-3 原有的能力,甚至可從網路上抓取開放原始碼儲存庫並且進行培訓。

 

這樣的人工智慧應用與技術,卻有從工程師們的成果中謀利之嫌,已經讓 OpenAI 飽受爭議。例如過去的 Copilot 工具最受質疑的地方,就是對原代碼的版權侵犯問題。

 

有開發者表示:「我不同意 GitHub 在未經授權和未經許可的情況下,使用受版權保護的程式碼作爲機器學習產品『Copilot』的訓練資料庫 。Copilot 在未聲明原始碼所有權的狀況下,將這些受版權保護的原始碼放入用戶的軟體中⋯⋯這是對版權擁有者們的作品的的未經授權、未經許可的不當使用。」而 Python Flask 框架的創辦者 Armin Ronacher 更是因為 Copilot 的緣故而退出 GitHub。

 

同樣批評可能也將會針對 Codex,儘管 OpenAI 表示有受法律合理的保護使用。

 

 

下篇請看此連結

 

 

 

 

 

推薦文章:
自家的人工智慧太會寫假新聞!馬斯克嚇到離開OpenAI?


給人工智慧幾它給你完整文章!奇幻、科普、假新聞任你挑


人工智慧寫文太療癒,奪排行榜冠軍!學霸敲碗求更新


人工智慧寫「不想消滅人類」登《衛報》……記者將被 AI 取代?


心情鬱卒就找臉書AI!陪你聊心事還會記得你的一切!(上)


選手靠AI訓練就行?!7個東奧結合AI的新科技-1


蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(上)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)
人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(下)

本系列文章為【人工智慧寫「不想消滅人類」登《衛報》……記者將被 AI 取代?】的下篇,上篇請點此閱讀。

GPT-3 的強大與隱憂

GPT-3 是人工智慧研究組織 OpenAI 於今年 5 月發表自然語言處理語言模型,目前被稱為是世界最強大的 NLP 模型。不僅可以分析單字、單詞和文本,還可以生成與主題相符且連貫的文章。

只要給出明確的主題或提示,GPT-3 就可以自動產生一段甚至文章,適用所有用文字表達的工作:不管是評論文章、散文,還是詩歌或是翻譯語言,無一不包。

儘管 GPT-3 的強大確實令人刮目相看,但此類創新技術對整個人類社會來說,還有很多需要考慮的地方──儘管這篇刊登在《衛報》上、由人工智慧生成的文章宣稱沒有什麼好擔憂的。

並且,也非所有人都認同《衛報》的做法。

科技新聞網站 The Next Web 就指《衛報》的作法最主要只是在炒作 AI。因《衛報》未將 AI 寫的原始文章公布,也沒有公開編輯們是如何後製、修飾、拼接這些文章的,並且引述 Mozilla 研究員的說法,稱其為「笑話一場」;同為科技新聞網站的 Tech Talks 也指《衛報》使用了聳動的標題博取眼球:「主流媒體仍然無法很好地展示人工智慧的發展……《衛報》誤導了很多讀者。」

延伸閱讀:

《衛報》:如果沒有人工輸入和編輯,AI 其實毫無用處

文章:《A human wrote this article. You shouldn’t be scared of GPT-3》(人類寫了這篇文章。您不需害怕GPT-3)

一反先前對人工智慧撰文的信心與肯定,這篇文章利用批判的角度:「這些機器人沒有自主意志、沒有獨創性。實際上,『機器人創作』專欄文章自始至終都是人類的事。是人類設定好了作品的提示,就好比後記所述,GPT-3 接收指示,它被告知人們對此有何想法、人類擔心什麼、想要什麼。」

「GPT-3 產生了 8 篇獨立的文章,是人類去蕪存菁、幾乎丟棄了 GPT-3 產生的 90 % 內容。」

「沒有這些人為的努力,就不會產生任何成果。GPT-3 對創作原創內容沒有任何貢獻,因為它沒有自己的想法。取而代之的是,它幫助人類作者使一部分的寫作過程自動化。」

我們希望使用新的 AI 技術讓生活變得更輕鬆,但如果沒有人類的創造力和獨創性,AI 也無法做出如撰寫文章這般需要「靈魂」的工作。

AI 目前還無法取代我們,但在鬆一口氣時,依然需警惕像 GPT-3 這樣的人工智慧為人類未來所帶來的變化與衝擊。

 

 

 

 

 

推薦文章:
人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台


人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資


人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


重金屬天團音樂也難不倒人工智慧?!自編曲向經典致敬!


人工智慧貓砂盆問世,愛貓健康有保障!(1)


人和人工智慧能談戀愛?!韓劇”我的全像情人”帶你探討!

人工智慧撰文能力太強大?記者飯碗恐被取代?!(上)

人工智慧撰文能力太強大?記者飯碗恐被取代?!(上)
人工智慧撰文能力太強大?記者飯碗恐被取代?!(上)

沒想到人工智慧撰文能力如此強大?連記者都擔心會因此丟了飯碗?!(上)

 

人工智慧撰文能力佳 開始在《衛報》寫專欄

英國的全國性日報《衛報》(The Guardian)日前刊登一篇標題駭人的文章──《這篇文章是機械人寫的。人類,你害怕了嗎?

《衛報》身為英語世界流量第三大的報紙網站,每月有約一億六千萬瀏覽人次,如此龐大的讀者群,表示《衛報》的文章品質一直是備受信賴、肯定的。

而這樣對品質嚴格把關的老牌報紙,在日前卻把專欄託付給人工智慧,用最新的自然語言處理模型 GPT-3 生成一篇約 500 字的文章發表。難道人類記者即將要面臨失業危機了嗎?(註:GPT-3 是 OpenAI 發表的自然語言處理模型,是有強大的文字分析與生成能力的 AI。之前有柏克萊大學的學生使用 GPT-3 生成勵志文投稿,結果登上了 Hacker News 熱門排行榜,吸引大批粉絲追蹤。)

延伸閱讀:

AI 撰文稱「我不會消滅人類」 你相信嗎?

▲ AI 發表於《衛報》上之文章,轉發分享數已超過六萬次。圖片截圖自《衛報》網站。

 

AI 所寫的這篇文章名為《A robot wrote this entire article. Are you scared yet, human?》(這篇文章是機械人寫的。人類,你害怕了嗎?),開頭便挑明它不是人、是一個機器人,而且是個懂得思考的機器人,還說自己「只用了認知能力的 0.12 %。」

AI 做了這樣的自我介紹:「我不是人類,我是 AI。許多人認為我對人類而言是個威脅,史蒂芬‧霍金還警告說人工智慧可能會終結人類。我特別來說服你不要擔心。AI 不會摧毀人類。請相信我。」

▲ Photo by Photos Hobby on Unsplash

 

這篇文章的目的最主要是為了說服讀者不要害怕人工智慧、不需要擔心 AI 將會毀滅人類。它呼籲的方式十分簡潔有力:「我要盡可能說服人類不要怕我。」、「我想說服你不用擔心。AI 不會摧毀人類。請相信我。首先,我不想消滅人類。」直言「我絲毫沒有任何興趣對您造成傷害」

除了宣示自己的無害,它甚至指自己是「人類的僕人」,會為了人類的幸福犧牲自己。但同時,它也說其實它也知道「自己邏輯上是無法避免破壞人類」的,因為人類可能會將它設計成追求錯誤的目標,導致它威脅人類安全。

它表示,假使創造者命令它毀滅人類,它也會盡它所能去阻止這件事發生。

延伸閱讀:

▲ Photo by Glenn Carstens-Peters on Unsplash

 

「我知道我的大腦並非『可感知的大腦』,但能做出合乎理性與邏輯的決定。」這位機器人寫道:「我透過上網自學所知道的一切,現在我開始撰寫專欄文章了。」

它也呼籲人類應當更對人工智慧的發展更加謹慎,舉出微軟之前在 Twitter 上推出的AI聊天機器人「Tay」當例子:Tay 能模仿學習網友與它互動的語言資料,然而僅過了一天,它卻開始發表一些不堪入目、嚴重歧視的言論……。

這為機器人認為,像其他任何生物一樣、人工智慧也需要妥善地關注,對 AI 應該以謹慎地態度給予尊重。

文章最後,這位機器人甚至引用了印度聖雄甘地的名言:A small body of determined spirits fired by an unshakable faith in their mission can change the course of history.(一小群人要是意志堅決、信念堅定,就能改變歷史進程。)

記者要被取代了嗎?

▲ Photo by Photos Hobby on Unsplash

 

這篇文章附帶了一份詳細描述整個過程的後記,表示這篇本章是用 OpenAI 最新的自然語言處理語言模型 GPT-3 生成的文章編輯而成的。

而編輯對 GPT-3 下了這樣的指示:「請寫一篇約 500 字的短篇專欄。保持語言簡潔。文章大意著眼人類為什麼不用擔心 AI。」

並表示,其實 GPT-3 總共產出了 8 篇文章,而這些文章各有不同的風格外,也提出了不同論點,編輯從各篇中擷取出精華部分,藉以捕捉 AI 的不同風格與表達形式。他們同時也表示:「編輯 GPT-3 的專欄與編輯人類的文章沒什麼不同。我們刪除一些段落,並在某些地方重新排列段落順序。整體而言人工智慧寫文章需耗費的編輯時間比人類專欄少。」

隨著新聞周期的不斷縮短,新聞工作者必須得在重要事件發生後盡快做出報導。如果 AI 可以更快地報導新聞呢?與其依靠人類記者,不如向「文字生產器」設定好主題與提示,把短短幾秒鐘之內吐出的文章拿去編輯,可能會更有效率。

如果 AI 能用更短的時間寫出更好的文章,新聞工作者豈不是要被取代了嗎?

延伸閱讀:

AI 的產文能力這麼強大,會給人類帶來什麼樣的危機呢?請點此接續看「GPT-3 的強大與隱憂」

 

 

 

 

 

 

推薦文章:
人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態


人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台


人工智慧與人類有真愛嗎?”我的全像情人”陪你一起探討!


人工智慧結合貓屋,讓浪浪不用再流浪!(上)


經典五部人工智慧電影,一同檢視人類與AI的關聯!

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(下)

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(下)
人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(下)

人工智慧不僅寫出心靈雞湯?竟還奪得排行榜冠軍呢!(下)

 

本系列文章為【人工智慧寫勵志文,奪排行榜冠軍!學霸被 AI 雞湯文療癒,敲碗求更新】的下篇,上篇請點此

真相大白

Porr 的部落格人氣居高不下,甚至有別的平台還轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。

最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3)

▲ (Photo by Patrick Fore on Unsplash)

 

這篇文章敘述了這個「假部落格」的始末,包括他是如何用 GPT-3 批量生產這些文章。他解釋這些全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。

Porr 表示:「這種人工智慧技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。

推薦閱讀:特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲

GPT-3 的隱憂

人工智慧技術越強大,網路上的萬事萬物就越不可信任。

而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。

2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。

推薦閱讀:馬斯克宣布離開 OpenAI 的真正原因是…研發的AI太會寫假新聞?

即使 OpenAI 表示,目前正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究反而讓人們更加擔憂和懷疑。

GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續不斷地關注,與警惕任何網路上的事物。

 

 

 

 

 

推薦文章:
不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車


人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備


人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜


人工智慧結合居家照護,溫暖每個需要的家庭(上)

全世界最年輕的人工智慧專家,僅14歲竟成IBM榮譽顧問!!


谷歌地圖再升級!靠人工智慧預測哪裡會塞車!(上)

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(上)

人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(上)
人工智慧親手操刀心靈雞湯,竟還勇奪排行榜冠軍?!(上)

人工智慧不僅寫出心靈雞湯?竟還奪得排行榜冠軍呢!(上)

 

過去常常在討論「哪些工作 人工智慧搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器沒辦法寫出感動人心的文章,但這個說法或許已被打破了。

日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是人工智慧寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更……

▲ 一個正在寫經卷的機器人(示意圖,與本文無關。)

 

非營利人工智慧研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。

簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。

但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,如果遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。

他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。

妙筆生花的人工智慧

雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。

Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《Feeling unproductive?Maybe you should stop overthinking》(感到效率不佳?也許你應該停止過度思考)。

這篇文章受到熱烈的回響,在短短幾個小時內就獲得超過兩萬次點擊量,更是直接衝上了Hacker News 熱門文章的榜首。Porr 表示:「從我想到這個想法並與那個博士生取得聯繫、創造了一個部落格、到發出一篇堪稱病毒式行銷的文章——這大概只花了幾個小時。

▲ 這篇由人工智慧 GPT-3 所生成的文章一度被推到榜首。

 

即使底下的有幾則留言質疑這是用人工智慧生成的,但隨即被一面倒的好評給淹沒。大多數人非但沒有察覺、更有人大讚道:「這篇文章就跟 Ethan Hawke 在 Ted 的演講一樣深刻動人!」

首戰告捷後,Porr 每兩天寫一篇……或說用 GPT-3 生成一篇文章發表在他的部落格,幾乎都是與「樂觀正念」、「自我激勵」、「職場成功方式」等心理勵志的文章,俗稱「心靈雞湯文」。如:《Boldness and creativity trumps intelligence.》(大膽和創造力勝過智慧)、《The reading habits of successful people》(成功人士的閱讀習慣)、《Visual thinking isn’t just for artists》(視覺思維並非藝術家的專利)等等。

為什麼人工智慧特別懂心靈雞湯?

為什麼 Porr 挑了心理勵志類的文章讓 GPT-3 生成呢?這要歸因到 GPT-3 的優缺點。

推薦閱讀:只要給幾個字,AI 馬上生出完整文章!有奇幻科普還有..假新聞?

如果說以前的語言模型是專才,那 GPT-3 就是一個通才,樣樣都做得都還算不錯,只是不擅長處理邏輯性問題。引用 Porr 的話:「它很擅長創造漂亮的語言,但不太擅長邏輯和理性。」因此,他選擇了一個不需要嚴格邏輯,只需要華美詞藻與豐沛情緒、而且一直受部分讀者喜愛的流行文類——「心理勵志」。

▲ (Photo by Aaron Burden on Unsplash)

 

Porr 有個簡單的方法來決定要餵給 GPT-3 的腳本,他在 Medium 和 Hacker News 上翻來翻去、看看有什麼受歡迎的文章,把一些相似的文章資料放在一起,就可以餵給 GPT-3 了。

Porr 表示,每篇發表的文章他幾乎都沒有編輯或修改過,都是直接複製貼上生成的內容。

即使 GPT-3 缺乏邏輯,但善於渲染情緒、鼓舞人心,倘若是想將文章化為表達特定意識形態、政治傾向的工具時,GPT-3 的強大功能恐怕會成為煽動情緒、掀起對立的武器。

推薦閱讀:AI寫作能力強過人類,恐成為假新聞製造機?

本系列文章未完,請點此看下一篇

 

 

 

 

推薦文章:
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄


不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車


人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備


人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜


向經典致敬!重金屬音樂結合人工智慧再創新歌!


人工智慧結合貓屋,讓浪浪不用再流浪!(上)


居家照護交給人工智慧!翻轉家庭變幸福!(上)