美中AI角力/AI軍備競賽將導致末日?想仿冷戰建立全球規範管控 卻恐難實現
許多人工智慧產業領導者都視自己為本世紀的核武科學家。他們掌握革命性新技術,其威力之大可能會引發世界末日。因此包括OpenAI創辦人奧特曼在內,這些領袖都呼籲打造一個仿冷戰時代的全球核武治理架構,避免AI「軍備競賽」讓人類步向滅亡。然而,把AI比喻為核武會有什麼問題?專家認為,要建立像國際原子能署(IAEA)這般機構來管控AI,終究是一場夢。這是為什麼?
系列文章
推薦閱讀
討論
規範
- 留言不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合報有權逕予刪除留言、停權或解除會員資格。不同意上述規範者,請勿留言。
- 對於無意義、與本文無關、明知不實、謾罵之留言,聯合報有權逕予刪除留言、停權或解除會員資格。不同意上述規範者,請勿留言。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合報有權逕予刪除留言、停權或解除會員資格。不同意上述規範者,請勿留言。
全部討論 ({{total}})
按讚最多
最多回覆
新到舊
舊到新