国际标准期刊号: 2167-0358
Jerome C Glenn、Elizabeth Florescu 和千禧年项目团队
史蒂芬·霍金、伊隆·马斯克、比尔·盖茨和人工智能专家警告世界,人工智能发展到超越人类控制的程度,可能会带来潜在的危险,成为超级智能、通用人工智能或强人工智能——能够根据反馈自主重写自己的软件代码,同时在世界各地实施新软件,修改目标,超越人类智力。尼克·博特姆在 2012/2013 年进行的专家调查发现,到 2040-2050 年实现“高级机器智能”的可能性为 50%,而超级智能则可能在 30 年后实现。
分享此文章: