不少科幻電影中,一些人工智能機器拒絕服從人類指揮,甚至殺死或控制人類,最終統治世界。為避免這類情況出現,包括英國理論物理學家霍金在內的數百名科學家和企業家聯合發表一封公開信,敦促人們重視人工智能安全,確保這類研究對人類有益。
英、法等國媒體1月13日報道,這封信由非營利機構“未來生活研究所”發布。除霍金外,在信上簽名的還有美國機器人和智能機械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學獎獲得者弗蘭克·維爾切克、美國網絡通訊軟件Skype創始人之一揚·塔利英以及一些來自美國哈佛大學、斯坦福大學等知名高校的頂尖學者和一些來自谷歌公司、微軟公司等高科技企業的工作人員。這封公開信說,人工智能技術穩定發展已獲廣泛共識,而且未來能夠給人類帶來巨大益處。人工智能已經為人類生活提供便利,包括語音識別技術、圖像分析技術、無人駕駛汽車和翻譯工具。但是,如果沒有針對人工智能的安全防護措施,可能導致人類的未來變得黯淡,甚至讓人類滅亡。
短期而言,人工智能可能導致數以百萬計的人失業;長期而言,可能出現一些科幻電影中的情況,人工智能的智力水平超過人類,開始“政變”。按人工智能的發展進度,在不久的將來,機器可能以不斷加快的速度重新設計自己,超越受制于生物進化速度的人類,最終擺脫人類的控制。
這封公開信說:“我們的人工智能系統必須按照我們的要求工作。”
去年早些時候,霍金提醒,需警惕人工智能科技過度發展,防止人工智能科技失控并超越人類智慧,最終破壞整個星球。
2025-06-01 18:37
2025-05-31 19:52
2025-05-31 19:49
2025-05-26 12:52
2025-05-26 09:00
2025-05-22 15:01
2025-05-21 20:49
2025-05-21 13:31
2025-05-18 16:04
2025-05-17 11:32