欢迎来到极品财经网!

【人工智能超越人类辩论】如果人工智能超越人类,我们能否驾驭?

利率风险 时间:2020-11-30

【www.jpmy1688.com--利率风险】

    有可能是驾驭不了,这一点已经被军事专家广泛关注。美国家安全中心执行主任,前副首席法官检察长查尔斯邓拉普少将已经警告,美军使用人工智能技术用于作战武器上,将大大增加武器对人自主开火的风险。也呼吁国际上禁止使用激光器来使战斗中的人失明,也就是激光致盲系统,如果高功率激光,甚至可以烧穿探头。机器人三定律已经说明,机器人不可以伤害人类,或者通过不作为让人类受伤。       机器人必须服从人类给予的命令,除非这些命令与第一法律相冲突。只要不与第一或第二定律冲突的情况下,机器人就必须保护自己的存在。这个定律来自阿西莫夫,如果一个人工智能机器人变成武器,那么就反了阿西莫夫的第一机器人法律。如果人工智能遵守所有的战争规则,战场上你根本看不到智能武器。但也有专家认为,人工智能在没有意识之前,违反战争规则的可能性低于人类,恰恰相反,人类才是违反战争规则的潜在源。       银行信息港认为,前不久,来自30个不同国家的50多位AI研究人员和科学家联名抨击韩国KAIST大学使用人工智能技术制造武器,该实验室被称为国防和人工智能实验室,旨在为韩国军方提供智能打击系统。谷歌公司也面临抵制人工智能武器化的进程,声明谷歌或其承包商都不会用人工智能技术制造战争武器。如果机器人用漏洞控制智能武器,那么我们的麻烦就大了。

本文来源:http://www.jpmy1688.com/ll/84792.html

推荐内容