董事會對AI與新興技術的治理

【作者】Samantha Kappagoda
【資料來源】Directors and Boards 
【發佈日期】2025年 4月2日
【介紹者】閻書孝研究員
【審訂者】謝靜慧/本協會前秘書長
【簡介】    

2022年十一月在生成式AI工具ChatGPT發表五天後,OpenAI的執行長Sam Altman就在推特上表示,用戶已經超過100萬名,隨後的估計顯示,兩個月後的活躍用戶將達到每個月近一億人。這一現象引發了公司董事會針對生成式AI的討論。

雖然像生成式AI等新興技術可能為企業帶來潛在的創新機會,藉此取得競爭優勢,並提升投資報酬率(ROI),但同時也存在風險,即負面結果可能破壞表面的利益。公司董事會的監督應考量導入與部署AI可能帶來的未預期後果,並適當權衡預期效益與風險之間的取捨,這些風險與具體策略和實際應用了領域和方式相關,如研發、客戶互動、營運效率提升及成本降低,並涉及相應的財務、營運、合規與聲譽風險。

美國對AI的監管現在分散在各州,沒有聯邦層級的規範。州級的一個例子就是2024年科羅拉多州AI法,該法案要求AI系統供應商和部署者要採取合理的措施,保護消費者免於已知或合理可預見的演算法歧視風險。尤其是對「高風險AI系統」的使用,如教育、就業、金融服務、基本政府服務、醫療保健、住房、保險或法律服務等領域。

2024年《歐盟人工智慧法》(EU Artificial Intelligence Act,EU AI Act)是迄今最全面的AI監管規範,該法案依據風險程度將AI系統分為以下四個類別,並據以實施新要求:

*「禁止」或「無法接受」的風險
*高風險
*履行透明度義務
*通用的系統

該法適用於AI價值鏈上所有參與者,如產品製造商、供應商、部署者、進口商、分銷商以及被授權代表,若所涉及的AI系統或產出在歐盟司法管轄區內使用時,則歐盟以外的供應商與部署者也適用該法。當歐盟AI法通過時,法律專家預期會帶動其他司法管轄區採用AI治理和道德標準,類似於《歐盟一般資料保護規則》》 (General Data Protection Regulation,GDPR)對管理隱私所產生的推動力。

AI與公司策略

關於監督AI採用的職權是要落在董事會層級?還是功能性委員會層級?仍在爭論中。有一個強而有力的主張是,與新技術採用有關的風險應該是整個董事會的職權,包括因採用時機而與現有競爭者和潛在新進者的差異,對比較市占所造成的風險。一些公司所採取的方式是:快速建立跨領域的AI任務小組;有的公司停留在反覆概念驗證的階段;另外一些公司則採取觀望態度。

如果從資料科學家的角度來看,會發現AI無法現成導入,也不是適用所有公司與產業的萬靈丹。相反地,AI的採用高度依賴具體情境,受到各種公司相關因素的影響,如產業或部門、規模與成熟度、公開發行或私有、受監管與否、國內或國際(營運點、註冊地或者價值鏈的參與者)、風險容忍度與管理能力,預計要使用哪一種類型的專用數據,還有所採用技術的發展和成熟度。除此之外,使用情境的識別應該納入風險等級排序和ROI估計,並且評估開發是由公司內部,還是外部方式完成,例如藉由收購、第三方合作,或白標籤技術(white label)。

回到治理角度,雖然監督AI採用是董事會層級的責任,但本文聚焦於功能性委員會監督的具體案例,此外還會點出某些實務上的議題,儘管這些內容不具全面性。

審計、風險與技術委員會。若授權給委員會,企業採用的監督方式通常是擴大現行審計或風險委員會的職責內容,而非再建立一個新的技術委員會。審計委員會初期可能提出的一些基本問題會是:當前或未來使用AI的領域與方式,是否會影響到財務報導,或其他審計委員會監督之領域。

除此之外,被指派的委員會應該詢問:供應商與承包商管理以及公司網絡安全計畫,是否包含了生成式AI的使用。進一步應該再問:公司是否對員工使用生成式AI設置了充足及適當的健全防護機制,雖然,還不清楚僅此類保護是否足以確保智慧財產權以及機密資訊安全。

舉例來說,2023年有一家跨國電子公司,在軟體工程師將其專有程式碼暴露到廣泛使用的生成式AI工具後,就禁止員工使用。根據媒體報導,該暴露的程式碼已被吸收並部署到生成式AI模型的訓練上,而且無法再回頭刪除。

另外,相關委員會應該詢問:公司是否有全面、安全的技術採用政策,來管理混合式的工作環境、涵蓋工作時使用雇主擁有的電子設備、工作時使用的個人設備、在家中使用雇主所擁有的設備(不管是否部署VPN)以及家中使用的個人設備。

薪酬與人力資本委員會。人力資本管理之治理是複雜的,尤其考慮到勞動力人口結構的變化,以及員工偏好之轉變,和新冠疫情後工作場所變動的狀況。人力資本策略必須和AI策略整合,特別是當公司想要發展內部技術時,因為國內市場相對缺乏具適當技能的員工。在這個背景下,委員會可以提問聘僱優先事項和策略、設立合適的指標和KPIs,來聘僱與管理負責科學與技術的員工(衡量是在地招聘或是外地招聘),並需要提升整體員工技能或再培訓。

在廣泛使用演算法之前,人力資源專員負責或參與候選人的面試、聘僱、薪資及晉升。現在,這些流程很多已經完全或部分地自動化。雖然此自動化比起人為決定,可能提高處理的速度及規模,但演算法可能會重複、甚至擴大人為偏見,不成比例地影響到受保護的群體。對自動化聘僱工具的監理性監管現在還不多,紐約第114號關於自動化聘僱決策工具法(New York Law 114 on Automated Employment Decision Tools,AEDTs)是其中少數之一,其禁止雇主與聘僱機構部署未經過年度偏見查核(此類查核需要公開揭露)的AEDTs,並進一步要求對未來或目前的員工提供某些通知。

在2024年十一月的論壇《The Character of the Corporation》上,一場名為「非人力資本:AI、職場與董事會」(Inhuman Capital: AI, the Workplace and the Board)的小組討論上,作者對此類委員會提出了一個例子。幾年前,有一家全球科技公司發展與部署了一個機器學習模型,篩選出軟體工程師職位的求職者,並將候選人排序。然而,後來有記者報導指出,該模型存在性別偏見,因為它的訓練主要是依據該公司科技職位上男性員工履歷所組成的資料庫。該模型明顯不利於履歷上列有女子學院授予學位、以及像「女性棋藝俱樂部」之類課外活動的候選人。後來很快就取消了此模型之部署。

另外一個憂慮是關於AEDTs偏見的影響,這些工具往往採納一個廣泛存在的觀點,即就業歷程上的缺口對求職者是不利的條件。值得思考的是,「若在環節中少了人為介入」,AEDT對於經歷過不可避免的就業缺口的個人或團體(他們可能因為育兒和缺乏日間托育、複發的健康相關問題),可能給予較低的排行,因此,對女性或身障者產生不成比例的影響。

ESG委員會。關於在ESG管理內的生成式AI使用案例,已經有很多討論,包括加速數據蒐集與整理,還有提供進階的資料分析,以協助遵循與報導。然而,在討論中相關的電力消耗問題著墨不多。

最近幾年美國和其他主要經濟體大幅增加對數據中心的投資。訓練大規模的AI模型需要大量的運算資源,這導致數據中心還有數據傳輸網路對電力、水的消耗大幅增加。根據業界估計,數據中心使用將近全球2%的電力,而且會隨著生成式AI的普及而增加。美國能源資訊管理局(U.S. Energy Information Administration)最新的報告預估,電力消費在2025與2026年每年會成長2%,與2024年成長率差不多,較前20年相對變動不大。

治理與提名委員會。董事會的最佳組成一直是治理與提名委員會長期討論的議題,最近的討論焦點則是,董事會是否具備足夠的技術專長來履行義務。若董事會指派某一位董事負責AI或其他新科技專業領域,會引發的問題是:該董事是否應該同時擔任公司的科學與技術主管,因為專業知識可能很快就過時,尤其是在快速演變的環境中。

對整個董事會來說,追求技術素養(或至少是熟悉度),而非過度仰賴某一個董事領導此類所有的討論,是較為明智之舉。除此之外,當尋求獨立的外部專家與顧問提供定期的技術簡報時,董事會應該考慮,此類建議實際上是否包含董事會層級的治理,還是僅關注於營運或研究層面的問題。

【網址連結】
https://www.directorsandboards.com/board-issues/ai/board-governance-of-ai-and-emerging-technologies/
 

TOP