IEEE談人工智能道德問題:當AI侵犯了人類時該怎麼辦?

TECH2IPO 於 16/12/2016 發表 收藏文章

1940 年,著名科幻作家阿西莫夫提出了機器人三原則。在當時還沒有真正意義上的機器人時,人們就已經開始討論未來世界將為人類服務的機器,它在設計、生產和使用過程中應該遵守的三大原則。






這三大原則是在「機器人太厲害了,必定超越人類」和「未來科技無法預測,必須將危險扼殺在搖籃裏」等言論環境下的產物。而有趣的是,在許多文學作品、影視作品中,機器人一定會違背這些定律;而在我們看到現實生活中的機器人,卻非常符合三個原則。

當年的機器人討論只是限制在機器人這個機械身上,而沒有詳細地去討論為什麼這個機器人可能會傷害人類,它是如何進行工作的。現在,我們需要更深入地去討論這機器人三大原則,並且還需要更加嚴謹地討論最近幾年新興的以圖像識別為代表的人工智能和能在沒人監管狀態下工作的自動化系統。





IEEE 發佈《道德倫理對齊設計》

《道德倫理對齊設計》(Ethically Aligned Design),是 IEEE(電氣和電子工程師協會)與 12 月 13 日發佈的一份針對人工智能(AI)和自動化系統(AS)創造過程中更多地對人類道德進行考慮的專項討論報告。IEEE 通過本報告,鼓勵技術人員在開發自動化系統和智能技術的時候,優先考慮人類道德,多為人類謀福祉。





人工智能與自動化系統應遵循什麼樣的原則?

按照 IEEE 的這份報告,他們提出了針對 AI 和 AS 的三項基本原則,建議開發人員在創造過程中優先考慮,並非強制。





引用1. Embody the highest ideals of human rights.

2. Prioritize the maximum benefit to humanity and the natural environment.

3. Mitigate risks and negative impacts as AI/AS evolve as socio-technical systems.——原文

同樣也對此提出了 4 個問題:





自動化智能系統的價值觀體現

這份報告中提出,參與 AIS(自動化智能系統)系統開發和設計的人,需要理解人類道德並且在系統中體現出人類道德倫理。對此,IEEE 給出的建議包括:





但是也存在下列問題:





人工智能也分派系

IEEE 的這份報告,對人工智能進行了劃分,將他們分成了兩類。一類是普通人工智能(AGI),另一類是超級人工智能(ASI)。兩者都必須為人類社會和人類道德進行服務。

引用AGI 將來會變成對人類社會發展產生翻天覆地影響,甚至引發農業革命和工業革命,大幅度推動世界發展。

ASI 則是專門用來為人類社會謀福利,為人類道德理想服務的人工智能。






當武器也自動化

當自動化系統是以帶來傷害為前提的時候,那他的道德就必須進行調整。因為自動化武器系統是一種武器,武器必然會對設備或人造成傷害,所以不能 100% 的實現自動化。IEEE 的專家團隊建議,自動化武器系統應該接受一定程度的人類控制,前提是保護社會福祉,而且當進行審計測試的時候自動化武器系統要確保這一建議也能實現。

另外,這份報告還深入討論了人工智能對人類數據的獲取以及人類對數據權限的控制、當人工智能和自動化系統對人類社會和道德產生挑戰時的應對方法,以及相應的法律法規。

如果你對人工智能、自動化系統道德話題感興趣,也可以發表自己的看法。點擊這裏,查看詳細的 PDF 文件報告。

【正版圖片來源:站酷海洛創意


資料來源:TECH2IPO

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→