[心得] 《哈佛商業評論推薦必讀AI趨勢》讀後心得
《哈佛商業評論推薦必讀AI趨勢》讀後心得與四個收穫
善用 AI 轉型,將是新時代企業和個人的成功關鍵
圖文好讀 https://readingoutpost.com/hbr-on-ai/
想在 AI 轉型的浪潮中站穩腳步嗎?或是在 ChatGPT 和機器學習成為新常態的時代,找到一張藍圖來指引新的方向?我今天要跟大家分享的這本書,談的就是 AI 對於企業經營和職場工作的各種影響,是幫助你全方位認識 AI 趨勢的首選!
這本書在說什麼?
《哈佛商業評論推薦必讀AI趨勢》是由全球最具指標性的管理雜誌《哈佛商業評論》精選出來的文章集結成書。書中不僅解析了 AI 如何顛覆傳統的商業模式和工作方式,還涵蓋了行銷、人力資源、產品定價等多角度的實用觀點。等於在一本書裡面,直接讀到最具權威性的 AI 文章精選輯。
書中探討了很多主題,像是 AI 應用對企業的經營團隊和個別員工的影響,從如何正確應用 AI 行銷,到如何避免 AI 產品帶來的道德風險,應有盡有。不只如此,書中的文章大部分都提供了一系列實用的策略和方法,如果你是經理人、企業領導人或新創企業家,都能迅速掌握 AI 趨勢,並順利導入企業轉型。
簡單來說,這本書涵蓋了關於 AI 各個方面的問題,讓我們從一種全局的觀念,去思考
AI 對於企業經營和職場工作所帶來的影響。以下分享我從書中得到的四個收穫。
1.AI 應用的適用領域
書中有一篇文章提到,AI 科技的「適用領域」是我們必須注重的事情。像是車子偶爾發生事故是不能容忍的,但是 AI 藝術家創作出一些很棒的畫,也創作出一些糟糕的畫,則是完全可以接受的。
例如,在像是交通或醫療這種高風險的領域,即使是微小的錯誤也可能導致嚴重的後果,包括生命危險。因此,在這些領域中,AI 的錯誤是不能被容忍的。像是一個錯誤的 AI
醫療建議,可能會導致醫生做出錯誤的判斷,而耽誤了病人該接受的醫療。一個自動駕駛車輛的失誤可能會造成交通事故,嚴重一點甚至威脅到人們的生命。
一方面來說,站在道德高點的角度,很多人主張不能單純地將 AI 的失敗視為「學習過程」或「不可避免的錯誤」,因為一旦發生錯誤,影響和傷害的可能就是一個人的一輩子。另一方面,站在比較工程學的角度,這種錯誤反而是科技發展的必經之路,就像是《反脆弱》書中的觀念一樣,為了讓「整體」具備反脆弱性(AI 科技的發展帶來的好處),就得接受「個體」的脆弱性(AI 發展的過程中一定會傷害到某些人)。以歷史的經驗看來,後者比較有可能會持續發生。
相反地,相對於那些高風險的領域,「創造性」和「表達性」的任務,如藝術創作或行銷文案撰寫,對 AI 的失敗就很寬容。因為在這些領域中,即使 AI 創作出不受歡迎或者品質低劣的作品,後果就只是別人不滿意,或是市場接受度很低,不會影響到人們的安全或健康。
因此這篇文章的建議是,可以將 AI 應用在創造性和表達性任務(例如撰寫行銷文案),而不是危險和重複性的任務(例如駕駛堆高機)。然而,我自己的看法則是,引用剛剛提到「反脆弱」的觀念,AI 終究會接手所有高風險和低風險的任務,只是時間的早晚問題而已。
2.AI 可能會妨礙在職學習
很多企業導入 AI 的應用,大多都希望對企業帶來正面的幫助。可是書中有一篇文章提醒了一件事情,那就是 AI 很可能會妨礙新進員工的在職學習。
這篇文章引用了廣泛的證據顯示,當一家公司部署 AI 應用的時候,經常會阻礙「在職學習」這個重要的學習途徑。文章的作者和他的同事發現,當某個流程完全改用機器取代時,原本的老手和專家不再需要積極參與,因為機器會搞定大部分的事情。對於他們來說,這個新的方法就像一個「黑盒子」,反正它會動就好,老手可能會懶得解釋細節,因此剝奪了新進人員的學習機會。
為了避免這種問題,文章提倡一種不同的學習方法,叫做「影子學習」。這個方法我覺得很適合給主管或企業領導者參考。
首先是確保學習者有機會在「真實」的工作中,挑戰自己的極限,碰到困難,讓他們有機會「犯錯」然後從錯誤當中振作起來。為了做到這點,必須由原本的專家設計真實情境的挑戰。
其次是建立清楚的管道,讓最優秀的「第一線員工」來擔任導師和教練,重新設計角色和激勵的誘因,協助學習者熟練與 AI 一起合作的新方法。
最後,是打造一個可以搜尋、標註、群眾外包的「技能庫」,也就是公司內部的維基百科,裡面要包含工具和專家指引,讓學習者在必要時可以取用,還要讓專家和學習者都可以在上面貢獻自己的心得。
所以,對於管理者和組織領導者來說,導入 AI 和自動化流程,可能對大局來說是一件好事。可是在細節的地方,像是新進員工的在職學習,要避免 AI 把新手和專家隔開了,我們必須要採取不同的策略去進行。
3.AI 缺乏主觀的意圖
在書中的一篇文章,提到了 AI 在行銷策略上的重點,我們必須留意,AI 本身不知道自己要什麼,而是乖乖地接受我們人類給予的指令。因此,「問出一個好問題」就顯得非常重要,因為好的問題才會引導出好的答案。
在文章作者研究的一家大型電信公司中,他們發現行銷團隊面臨著一個普遍的問題:「如何有效地運用 AI 來減少顧客流失?」許多人誤以為,主管們應該聚焦於找出可能會流失的顧客。
在企業管理和行銷策略中,「問題定位」是成功的關鍵。如果行銷人員對 AI 提出的問題是「哪些顧客最可能會離開?」,那麼答案往往會聚焦在那些無論如何都會離開的顧客上。這樣一來,就浪費了寶貴的行銷資源。相反地,如果問題是「哪些考慮離開的顧客『最可能』對促銷方案有回應?」,就能更精確地對準目標,留住可能留下來的顧客,達到資源的最大化利用。
這個概念就很像政治競選中的策略。政治人物通常會把資源和注意力集中在那些「心意搖擺」的選民上,而不是那些「已經決定」支持或反對的選民。同樣地,企業也應該將行銷資源和策略對準那些心意搖擺、最有可能被留住的顧客,而不是那些已經決定離開的顧客。
因此,好的問題是解決問題的起點。AI 並不具備「問題意識」或「主觀意圖」,因此企業需要更明確地表達自己的需求和目標。只有當我們人類清楚地知道自己要什麼,提出正確的問題,AI 才能真正地發揮它應有的功能,讓企業在激烈的市場競爭中占得先機。所以,我們要跟 AI 溝通的最大重點,就是需要講清楚自己的意圖和需求。
4.AI 的道德和倫理問題
隨著 AI 技術在各行各業的迅速應用,道德和倫理問題也越來越引人關注。
書中一篇文章建議,企業組織必須考慮成立專門的「AI 道德委員會」來解決這些問題。這個委員會的主要任務是針對正在開發或購買的 AI 產品,有系統地找出和減少潛在的道德風險。像是在美國給予醫療建議的 AI,會根據過去的資料,給予黑人比較少的資源;給予法律判決建議的 AI,則會判斷黑人可能有更高的再犯率。
造成這種現象的背後原因,就是因為 AI 是一個基於數據和演算法的工具,它本身缺乏「意圖」和「道德觀念」。當 AI 作出決策時,它依賴的是「過去」的數據和經驗,而不是道德或倫理的判斷。這種依賴可能會導致判斷上的「偏誤」,也就是 AI 的決策只是針對「過去」和「現在」現象的反映,而缺乏對「未來」或更崇高理想的追求。
有些人可能會反駁:「這就是現實世界啊?為什麼不完全按照現實世界的資料就好了?難道連 AI 也要追求政治正確嗎?」
問題在於,如果人類社會永遠按照「現況」進行,那麼既有的不公不義、歧視和偏見的現象,只會持續存在。回顧人類過去的歷史,許多偉大的社會變革都是由那些不滿足於現狀、持有高尚理想的人推動的。我們之所以擁有現在這些公民的權利和人道的待遇,在很早以前的社會都是被視為離經叛道的觀念。而人類的道德和倫理決策通常是基於對某種「理想」的嚮往。這正是整個世界能夠一直進步和改善的重要動力。
所以我很贊同 AI 道德委員會的觀念,它不只能幫助組織有系統地識別和減少 AI 產品的道德風險,還能夠確保了人類的道德和倫理價值在 AI 決策過程中能夠發揮作用。正因
為 AI 本身缺乏對於「理想」的追求,人類的參與才有機會將這些高尚的理念融入到 AI的應用之中,推動世界朝著更好的方向發展。
後記:轉型和適應AI趨勢
如果你平時就像我一樣有在固定閱讀《哈佛商業評論》的文章,書中的文章你可能都會印象。但是如果你平常沒讀過《哈佛商業評論》,那麼這本書就一次性地,把最值得你閱讀的 AI 文章都收錄進來了。我也曾經寫過一篇文章是〈《哈佛商業評論》雜誌訂閱心得和評價〉,如果你有興趣的話歡迎前往閱讀。
總結來說,《哈佛商業評論推薦必讀AI趨勢》這本書我認為對企業的主管和經營者特別有幫助,因為這本書談的不只是 AI 的好處,而更多是聚焦在 AI 的風險以及導入 AI 的時候會遇到的困難。當然,這本書除了告訴我們這些問題之外,最重要的是跟我們說要如何制定策略,去降低這些風險和克服困難,達到一個更好的導入和轉型成果。
對於個人工作者來說,也可以透過這本書去理解現在 AI 的發展趨勢,以及未來可能會面對的一些轉變。例如大家最擔心的「我會被 AI 取代嗎?」這種問題,讀完這本書之後,你會發現「人的價值」開始轉變,我們要思考的是如何轉型和適應,甚至在必要的時候主動介入、操作方向盤。我認為,在 AI 持續蓬勃發展的未來,會被 AI 取代的,是無法轉型和適應新價值的人。
--
書評部落格「閱讀前哨站」 https://readingoutpost.com/|一個愛書人的閱讀筆記
Podcast「下一本讀什麼?」 https://readingoutpost.com/podcast/|我的說書頻道
--