通用人工智能的生存風險維基百科,自由的 encyclopedia 通用人工智能的生存風險是假設通用人工智能的重大進展可能導致人類滅絕或其他一些無法逆轉的全球災難。[1][2][3] 生存風險(「x-risk」)學派的論點如下:人類物種目前支配着其他物種,因為人類大腦具有其他動物所缺乏的一些獨特能力。如果人工智能在一般智力上超越人類,成為「超智能」,那麼人類將難以或無法控制。正如山地大猩猩的命運取決於人類的善意,人類的命運也可能取決於未來機器超級智能的行為。[4]
通用人工智能的生存風險是假設通用人工智能的重大進展可能導致人類滅絕或其他一些無法逆轉的全球災難。[1][2][3] 生存風險(「x-risk」)學派的論點如下:人類物種目前支配着其他物種,因為人類大腦具有其他動物所缺乏的一些獨特能力。如果人工智能在一般智力上超越人類,成為「超智能」,那麼人類將難以或無法控制。正如山地大猩猩的命運取決於人類的善意,人類的命運也可能取決於未來機器超級智能的行為。[4]