沒有監管的人工智能會產生倫理偏見

沒有監管的人工智能會產生倫理偏見

透明度通常在道德商業困境中起著關鍵作用——我們擁有的信息越多,就越容易確定什麽是可以接受和不可接受的結果。如果財務錯位,誰會犯會計錯誤?如果數據泄露,誰負責保護數據,他們的行為是否正確?

但是,當我們發現了錯誤或者問題的確定來源,找不到人的時候,又會怎樣呢?這就是人工智能提出的獨特道德考量youtube視頻推廣

在組織中,人工智能顯示出巨大的潛力,但在很大程度上仍是一種解決問題的方法。這是一個被誤解的概念,實際應用尚未在企業中完全實現。另外,很多公司缺乏人工智能的預算,這是一種實際轉型方式。人才和遠見,人工智能還遠未達到臨界規模,容易被濫用。

但僅僅因為人工智能在日常業務中可能可能不是超級可見的,這並不意味著它在你的組織的某個地方不起作用。人工智能中的道德錯誤經常發生在黑暗中,就像商業中的許多其他道德困境一樣。打破道德界限的人工智能項目或應用的後果可能是噩夢。從一開始就管理項目是避免人工智能道德錯誤的關鍵。

構建透明和信任的人工智能。

到目前為止,我們都熟悉人工智能錯誤的流行示例。人工智能(可以說是不經意的)有失偏頗的故事,是黑皮客不能正常工作的肥皂器,是白人脈血氧儀更準確的算法,甚至是對犯罪分子是否會再次坐牢的預判。

這些案例不僅會引起頭條新聞和社交媒體的強烈反對,還會破壞更合法的人工智能用例。這些用例將無法實現,如果我們繼續以不信任的態度看待這項技術。例如,在醫療保健領域,人工智能可以改善癌症診斷,並將高危患者標記為為了獲得額外支持而再次入院。我們看不到這些強大的解決方案的所有好處,除非我們學會建立人工智能的信任手機上網Plan

我從一開始就支持人工智能工作的透明度和治理理念,當時我和同行和商業領袖談論人工智能。更具體地說,這是我的建議:

真空中不能發生道德人工智能。

人工智能應用程序可能會在執行不當時產生重大連鎖反應。單個部門或IT團隊開始嘗試AI驅動程序個部門或IT團隊開始嘗試AI驅動。如果他們的實驗做錯了,團隊是否會認識到可能的倫理影響?是否符合公司現有的數據留存和訪問策略?這些問題都很難在沒有監管的情況下得到解答。

另外,如果沒有治理,如果出現道德錯誤,召集利益相關者改正道德錯誤可能更難。在一定的道德範圍內,監,而應被視為必要的檢查,以確保人工智能在一定的道德範圍內運行。如果CDO角色不存在,首席信息官將負責監督,監督最終應該落在他們組織的首席數據官身上。

2.總有計劃。

我們看到的頭條新聞關於人工智能項目最差的問題,一般都有一個共同點,就是企業在回答問題或者說明問題的時候沒有準備好決策。監督可以解決這個問題。當組織的最高管理層了解人工智能和健康哲學時,不太可能因為問題而措手不及。

3.盡職調查和測試是強製性的。

許多人工智能偏見的經典例子可以通過更多的耐心和測試得到緩解。就像洗手液分配器的例子一樣,公司對展示其新技術的興奮最終適得其反。在產品公開發布之前,可能會發現這種偏見。此外,任何人工智能應用程序都需要從一開始就進行嚴格的審查。由於人工智能的複雜性和不確定性的潛力,必須戰略性地謹慎使用。

4.考慮人工智能監督功能。

為了保護客戶隱私,金融機構投入了大量資源來管理敏感文件的訪問。他們的記錄團隊仔細分類資產,建立基礎設施,以確保隻有正確的工作角色和部門才能看到每一個。該結構可作為組織人工智能治理功能的模板。一個特殊的團隊可以估計人工智能應用程序的潛在積極或消極影響,並確定需要多長時間來審查結果以及誰來審查它Au Tau

對於尋求數字顛覆的企業來說,測試人工智能是一個重要的下一步。它解放了人類工作者的普通任務,並擴展了一些以前在財務上不謹慎的活動(如圖像分析)。但這不能掉以輕心。人工智能應用程序必須在適當的監督下仔細開發,以避免偏見。道德問題的決定和糟糕的業務結果。確保組織中的人工智能工作得到正確的培訓。最嚴重的道德錯誤往往發生在黑暗中。