Blog

企業如何在倫理範疇內,有效地開發生成式AI模型的三種方式

Blog Image
企業如何在倫理範疇內,有效地開發生成式AI模型的三種方式

July 10, 2023

美國總統拜登正在與AI專家會面,以審查AI的危險性。 Sam Altman和Elon Musk公開表示他們的擔憂。顧問大廠Accenture最新下注AI,宣布計劃投資30億美元於此科技,並將其AI專注的員工數量增加至80,000人。除此之外,包含微軟、Alphabet和Nvidia在內的其他顧問公司也加入了戰局。

大型公司在採用AI之前,並不等待偏見問題消失,這使得解決所有主要生成式AI模型面臨的最大挑戰變得更加迫切。但是,AI法規將需要時間。

由於每一個AI模型都是由人類建立並在人類收集的數據上進行訓練,因此完全消除偏見是不可能的。然而,開發者應努力將他們在模型中複製的“真實世界”偏見降至最低。


真實世界中的AI偏見

為了理解真實世界的偏見,想像一個受訓來確定誰有資格接收按揭的AI模型。基於個別人類貸款人員的決定來訓練該模型,這些人可能會偏頗且非理性地避免將貸款授予某些種族、宗教或性別的人,這帶來了在輸出中複製他們真實世界偏見的巨大風險。

對於那些旨在模仿醫生、律師、人力資源經理以及無數其他專業人士的思考過程的模型,同樣如此。

AI提供了一種獨特的機會,能以避免偏見的方式標準化這些服務。反之,如果不限制我們模型中的偏見,則存在將嚴重缺陷的服務標準化,以某些人的利益為代價,損害其他人的風險。

以下是創辦人和開發人員可以採取的三個關鍵步驟,以做對的事:

1. 為你的生成式AI模型選擇正確的訓練方法
例如,ChatGPT屬於機器學習的更廣泛類別,也就是大型語言模型(LLM),意味著它會吸收大量的文字數據,並推斷文本內的單詞之間的關係。在用戶端,這意味著當回答問題時,LLM會用最可能的單詞填入空白處,考慮到周圍的上下文。

但是,有許多方法可以訓練機器學習模型的數據。例如,一些健康科技模型依賴於大數據,因為他們使用個別病患的紀錄或個別醫生的決定來訓練他們的AI。對於構建針對行業特定的模型的創辦人,如醫療或人力資源AI,這樣的大數據方法可能導致比必要的偏見更多。

讓我們想像一個AI聊天機器人,受訓與病患對話,為醫生製作他們的醫療表現的臨床摘要。如果使用上述方法建立,聊天機器人將基於諮詢數據來構建其輸出,在這種情況下,數據是數百萬其他病患的紀錄。

這樣的模型可能以令人印象深刻的速度產生準確的輸出,但它也引入了數百萬個病患紀錄的偏見。從這個意義上說,大數據AI模型變成了難以追蹤,更不用說修復的偏見雞尾酒。

對於特定行業的AI,一種替代這種機器學習方法的方法,是根據你的行業中的金標準知識來訓練你的模型,以確保偏見不被轉移。在醫學領域,這就是同行評審的醫學文獻。在法律領域,可能是你所在國家或州的法律文本,對於自動駕駛車輛,則可能是實際的交通規則,而不是個別人類駕駛員的數據。

是的,即使這些文本是由人類製作的,也包含偏見。但是,考慮到每個醫生都努力掌握醫學文獻,每個律師都花費無數時間研讀法律文件,這些文本可以作為構建較少偏見AI的合理起點。

2. 平衡文獻與不斷變化的真實世界數據
我的醫學領域存在大量的人類偏見,但是也是一個事實,不同的種族、年齡、社經團體、地點和性別面臨某些疾病的風險不同。例如,更多的非洲裔美國人患有高血壓,阿什肯納茲猶太人比其他群體更容易受到某些疾病的侵襲。

這些都是值得注意的差異,因為它們影響到為病患提供最好的可能照護。然而,在將這些差異注入你的模型之前,理解這些差異在文獻中的根源是很重要的。醫生是否給予婦女某種藥物的比率較高——這是對女性的偏見的結果——使她們更有可能患某種疾病?

一旦你理解了偏見的根源,你就更有能力修正它。讓我們回到按揭的例子。Fannie Mae和Freddie Mac,這兩家支持美國大部分按揭的公司,發現有色人種更可能從零工經濟工作中獲得收入,Business Insider去年報導。這使他們在獲得按揭方面被不成比例地阻止,因為這種收入被視為不穩定——即使許多零工經濟工作者仍有穩定的租金付款記錄。

為了糾正這種偏見,Fannie Mae決定將相關的租金付款歷史變量添加到信用評估決定中。創辦人必須構建能夠平衡官方的基於證據的行業文獻與現場變化的真實世界事實的適應型模型。

3. 將透明度建立到你的生成式AI模型中
要檢測和糾正偏見,你需要了解你的模型如何得出其結論。許多AI模型不追溯到他們的起源來源,也不解釋他們的輸出。

這種模型經常以驚人的準確性自信地產生響應——看看ChatGPT的驚人成功就知道。但是當它們不這麼做時,幾乎無法

確定出了什麼問題以及如何在未來防止產生不準確或有偏見的輸出。

考慮到我們正在建立一種將改變從工作到商業再到醫療照護的所有事物的技術,對人類來說,能夠發現並修正其推理中的缺陷是至關重要的——僅僅知道它的答案是錯的是不夠的。只有這樣,我們才能負責任地根據這種技術的輸出進行行動。

AI對人類最有希望的價值主張之一是,將大量的人類偏見從醫療、招聘、借貸、司法和其他行業中清除出去。這只能在我們在AI創始人中培養出一種尋找有效解決方案來最小化我們帶入我們模型中的人類偏見的文化的情況下才能實現。

Michal Tzuchman-Katz博士是Kahun Medical的共同創始人、CEO和首席醫學官。