|
Post by account_disabled on Oct 23, 2023 6:56:41 GMT
如今,很明顯,我們越多地利用人工智慧 (AI) 技術(例如 ChatGPT),它就會變得越聰明、似乎越自力更生。 不幸的是,隨著這些進步,人工智慧偏見的風險也更高。 越來越明顯的是,就像人類一樣,機器人也會產生與種族、性別、性取向和殘疾等各種人口統計相關的偏見。 換句話說,人工智慧可能會受到我們自己的個人偏見和習得行為的影響,無論這些偏見是多麼無意識或隱性。 偏見的說明 - 統計、人為和系統。 資料來源:國家標準技術研究院資料來源:國家標準技術研究院這就是演算法演算法通常是為了解決特定問題或任務而開發的。 設計演算法的主要步驟之一是收集和理解數據。 雖然制定解決方案的流程似乎很簡單,但總是會有細微差別。 設計公平人工智慧演算法的一個重要問題是無法存取與邊緣化社群和人群 电话号码清单 相關的數據。 算法本身並沒有偏見; 這是我們提供給它的數據。 如果沒有適當的數據,某些人群的代表性將不足,從而導致數據傾斜、預測分析有缺陷以及演算法歧視的可能性。 演算法開發完成後,應該進行內部測試和審核(可能由外部實體進行)。 演算法實施後,必須在其整個生命週期中持續監控,特別是如果您的團隊缺乏必要的多樣性和替代觀點來應對挑戰。 這是數據人工智慧偏見的另一種解釋是使用不完整和/或不準確的數據。 需要全面的數據來避免無意的偏見。 資料的收集和資料實踐必須能夠代表所有人群,才能確保更具包容性的體驗和公平的AI模型輸出。 例如,使用哪些資料來訓練模型? 如果相關數據的存取受到限制,演算法偏差、資料集偏差和認知偏差只是可能導致歧視性結果的幾個例子。 人工智慧道德資訊圖的 4 個階段:現實世界偏見、數據偏見、演算法偏見和商業偏見 資料來源:高德納儘管人們意識到人工智慧偏見的問題,但面對它並不是一項簡單或單一的任務。 人工智慧偏見的一個主要例子是臉部識別,事實證明,臉部辨識是識別中使用的最不準確的生物識別技術。 ProPublica 在 2016 年進行的一項著名研究得出的結論是,當時用於預測被告累犯的人工智慧演算法本質上對黑人存在偏見。 也就是說,演算法歧視是影響資料集最常見的問題。 提供的數據是否透明? 您公司缺乏多元化是否會對您使用的數據產生負面影響? 如果是這樣,徵求外部利害關係人的回饋可以幫助消除偏見。 是我們在數據決策過程中,個人和文化偏見以及基本主體性可能非常微妙。 這就是為什麼僱用一支擁有不同經驗和觀點的多元化團隊如此重要的原因之一。 代表性不足的人可以辨識出其他人可能沒有意識到的偏見。
|
|