人工智能的安全和道德 - Meltwater 的方法

已發表: 2023-08-16

人工智能正在改變我們的世界,為我們提供了令人驚嘆的新功能,例如自動內容創建和數據分析以及個性化人工智能助手。 雖然這項技術帶來了前所未有的機遇,但它也帶來了重大的安全問題,必須解決這些問題,以確保其可靠和公平的使用。

在 Meltwater,我們相信理解和應對這些人工智能安全挑戰對於負責任地推進這一變革性技術至關重要。

人工智能安全的主要關注點圍繞著我們如何使這些系統變得可靠、合乎道德並造福於所有人。 這源於人工智能係統可能造​​成意外傷害、做出與人類價值觀不符的決策、被惡意使用或變得如此強大以至於無法控制。

目錄

  • 穩健性

  • 結盟

  • 偏見與公平

  • 可解釋性

  • 漂移

  • 人工智能安全的未來之路


穩健性

人工智能的魯棒性是指即使在不斷變化或意外的條件下也能始終保持良好表現的能力。

如果人工智能模型不穩健,那麼當暴露於訓練樣本之外的新數據或場景時,它可能很容易失敗或提供不准確的結果。 因此,人工智能安全的一個核心方面是創建強大的模型,可以在不同的條件下保持高性能水平。

在 Meltwater,我們在訓練和推理階段解決人工智能的魯棒性問題。 採用對抗性訓練、不確定性量化和聯邦學習等多種技術來提高人工智能係統在不確定或對抗性情況下的恢復能力。

結盟

在這種情況下,“一致性”是指確保人工智能係統的目標和決策與人類價值觀同步的過程,這一概念稱為價值一致性。

錯位的人工智能可能會做出人類認為不受歡迎或有害的決策,儘管根據系統的學習參數是最佳的。 為了實現安全的人工智能,研究人員正在開發能夠在整個決策過程中理解和尊重人類價值觀的系統,即使在人類學習和進化的過程中也是如此。

構建價值一致的人工智能係統需要人類的持續互動和反饋。 Meltwater 廣泛使用人機參與 (HITL) 技術,在人工智能開發工作流程的不同階段納入人類反饋,包括模型性能的在線監控。

人們正在採用逆強化學習、合作逆強化學習和輔助遊戲等技術來學習和尊重人類的價值觀和偏好。 我們還利用聚合和社會選擇理論來處理不同人之間的價值觀衝突。

偏見與公平

人工智能的一個關鍵問題是它有可能放大現有的偏見,導致不公平的結果。

人工智能中的偏差可能是由多種因素造成的,包括(但不限於)用於訓練系統的數據、算法的設計或其應用環境。 如果人工智能係統接受包含有偏見決策的歷史數據的訓練,該系統可能會無意中使這些偏見永久化。

一個例子是工作選擇人工智能,它可能會不公平地偏向特定性別,因為它是根據過去有偏見的招聘決策進行訓練的。 解決公平問題意味著刻意努力盡量減少人工智能中的偏見,從而確保它公平對待所有個人和群體。

Meltwater 對我們所有的訓練數據集(包括內部數據集和開源數據集)進行偏差分析,並以對抗性方式提示所有大型語言模型 (LLM) 識別偏差。 我們廣泛使用行為測試來識別情緒模型中的系統性問題,並對人工智能助理使用的所有法學碩士實施最嚴格的內容審核設置。 我們正在利用多種統計和計算公平定義,包括(但不限於)人口平等、機會均等和個人公平,以最大限度地減少人工智能偏見對我們產品的影響。

可解釋性

人工智能的透明度,通常稱為可解釋性或可解釋性,是一個至關重要的安全考慮因素。 它涉及理解和解釋人工智能係統如何做出決策的能力。

如果沒有可解釋性,人工智能係統的建議看起來就像一個黑匣子,很難檢測、診斷和糾正錯誤或偏見。 因此,增強人工智能係統的可解釋性可以增強問責制,提高用戶信任度,並促進更安全地使用人工智能。 Meltwater 採用 LIME 和 SHAP 等標準技術來了解人工智能係統的底層行為並使其更加透明。

漂移

人工智能漂移或概念漂移是指輸入數據模式隨時間的變化。 這種變化可能會導致人工智能模型性能下降,影響其預測或建議的可靠性和安全性。

檢測和管理漂移對於在動態世界中保持人工智能係統的安全性和穩健性至關重要。 有效處理漂移需要持續監控系統性能並在必要時更新模型。

Meltwater 實時監控我們的人工智能模型的推論分佈,以檢測模型漂移和新出現的數據質量問題。

人工智能安全的未來之路

人工智能安全是一個多方面的挑戰,需要研究人員、人工智能開發人員、政策制定者和整個社會的集體努力。

作為一家公司,我們必須致力於營造一種優先考慮人工智能安全的文化。 這包括制定全行業的安全規範、培育開放和問責的文化,以及堅定地致力於利用人工智能以符合 Meltwater 最根深蒂固的價值觀的方式增強我們的能力。

伴隨著這種持續的承諾,責任也隨之而來,Meltwater 的人工智能團隊在 Google 和 OECD 的啟發下,制定了一套 Meltwater 道德人工智能原則。 這些原則構成了 Meltwater 如何進行人工智能、機器學習和數據科學研究和開發的基礎。

  1. 每當機會以包容性和可持續的方式出現時,造福社會。
  2. 偏差和漂移都是缺陷。 他們辜負了企業和我們的客戶。
  3. 作為一等公民的安全、隱私和保障。
  4. 追踪一切並承擔責任。 透明度是關鍵。
  5. 我們是科學家和工程師; 一切都必須經過證明和測試。
  6. 盡可能使用開源; 檢查其他所有東西並假設它是不安全的。

Meltwater 建立了合作夥伴關係和會員資格,以進一步加強其對促進道德人工智能實踐的承諾。

  • Meltwater成立了科學顧問委員會(SAB),該委員會由傑出的科研人員和專業人士組成的團隊,為Meltwater的人工智能戰略提供指導
  • Meltwater 遵守 PR Council 於 2023 年 4 月推出的生成式 AI 指南
  • Meltwater 通過提供多種AI 模型來檢測文本、音頻、圖像和視頻中的有害、濫用和不安全內容,包括通過我們的Newsguard 合作夥伴提供的錯誤信息用例,幫助品牌遵守WAF GARM 的品牌安全底線和適用性框架。

我們對 Meltwater 在向客戶提供合乎道德的人工智能方面取得的進展感到非常自豪。 我們相信Meltwater 準備繼續提供突破性創新,以簡化未來的智能之旅,並很高興能夠繼續發揮領導作用,負責任地倡導我們的人工智能開發原則,促進持續的透明度,從而增強客戶之間的信任。