(资料图片)
采访、编辑丨郭晓静
视频剪辑丨吴彬
2023年3月29日,非营利组织未来生命研究所(Future of Life)发表一封公开信,呼吁暂停研发比GPT-4更强大的人工智能系统至少6个月,包括特斯拉CEO马斯克、Stability AI的首席执行官莫斯塔克(Emad Mostaque)等在内的1000多名该领域的专家、科技人员、产业高层都在这封公开信上签了名,在这封信上, 我们也看到了一位中国科学家的名字—曾毅(中国科学院自动化研究所人工智能伦理与治理中心主任)。
这封公开信,虽无法律效力,但是引起了公众对人工智能治理的问题的空前关注,我们特别找到曾毅主任,问他是否方便谈一下为何在这封公开信上签名。他回复得很果断:“肯定可以说,而且要说清楚。”在对话中,我们也向他提了一个比较尖锐的问题:“AI领域的技术研发落后是更可怕,还是继续研发人工智能带来的潜在风险更可怕?”曾毅的观点很明确:“用一种竞争的视角来分析这个问题的时候就会使人不理性,中国目前的水平还没达到GPT-4,我赞同的是发展信息处理能力接近GPT-4的大模型,但是在伦理安全治理方面的规制与思考要远远超越GPT-4这样的大模型的研发。”
在与曾毅的对话中,我们还谈及了以下问题:
1如果用暂停六个月换取时间窗口,我们最急需解决人工智能带来的哪些负面影响?2大模型的技术原理并没有被完全弄清楚,就被大规模推向普通用户,这是不是一种不负责任的做法?3用大量数据“投喂”的训练方法,是否真的能让人工智能产生意识?4通过了图灵测试,就意味着人工智能拥有了“人类智能”吗?5国内大模型在两三个月内“扎堆推出”,有哪些潜在风险?6应对人工智能时代的到来,孩子们应该从小就开始学习人工智能课程吗?Copyright © 2015-2022 人人公司网版权所有 备案号:粤ICP备18023326号-36 联系邮箱:8557298@qq.com