上千名科技专家呼吁,暂停大型AI研究
时间:2023-03-31 14:32:33 热度:37.1℃ 作者:网络
当全世界都在为AI的进化而欢呼雀跃时,3月22日,据生命未来研究所官网报道,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。信中写道,“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”
此前,马斯克曾多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等甚至比核武器都危险得多。另外,OpenAI CEO奥特曼在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。
根据澎湃新闻报道,生命未来研究所(Future of Life)的这封公开信已有1079人签署。这封公开信内容具体写到,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。正如广泛认可的“阿西洛马人工智能原则(Asilomar AI Principles,阿西莫夫的机器人三大法则的扩展版本,于2017年由近千名人工智能和机器人专家签署)中所述,高级AI可能代表地球生命史上的深刻变化,应该以相应的关照和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——能理解、预测或可靠地控制。
这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,并且无可置疑。这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。
与此同时,信中指出,AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。至少应包括:建立专门负责AI的有能力的新监管机构;监督和跟踪高性能人工智能系统和大量计算能力;推出标明来源系统和水印系统,以帮助区分真实与合成,并跟踪模型泄漏;强大的审计和认证生态系统;界定人工智能造成的伤害的责任;为人工智能技术安全研究提供强大的公共资金;以资源充足的机构来应对人工智能将造成的巨大经济和政治破坏(尤其是对民主的破坏)。
最后这封公开信强调,“人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受‘AI之夏’,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。 我们可以在这个领域也这样做。让我们享受一个漫长的AI之夏,而不是毫无准备地陷入秋天。”
马云曾公开表示,ChatGPT这一技术只是AI时代的开始,我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力,脑力比不过机器,但机器只有“芯”,而人有“心”,工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力,担当力、责任的晶振,是独立思考的竞争。
对此,有专家评论,真正发挥ChatGPT这类人工智能工具的威力,取决于对业务的深刻理解和技术积累,然后借助ChatGPT这种工具,可以一当十,一当百的提高生产效率,并能快速扩张业务边界。3月27日,高盛分析师发布研究报告表示,最近出现的生成式人工智能将降低劳动力成本和提高生产率。尽管AI的潜力存在很大的不确定性,但它可以生成与人类创造成果无法区分的内容,并能打破人机沟通障碍,反映出具有潜在巨大宏观经济影响的重大进步。AI不仅节省劳动力成本,还能创造新的就业机会以及提高在岗工人的生产率。AI的革命性就像早期通用技术(如发电机和个人计算机)一样能为社会带来繁荣。
同时,研究报告也指出,在很多人为AI提升工作效率感到振奋的同时,也有声音担忧人工智能成为犯罪的工具。欧洲刑警组织警告说,生成式AI的快速发展可能会使其成为“未来的主要犯罪商业模式”。例如,AI被用来创建极具欺骗性的“深度造假内容”,比如制造出未发生事件的虚假图像或视频。同时,聊天机器人也可能欺骗毫无戒心的人泄露个人信息。