每经记者:李孟林 蔡鼎 谭玉涵 每经编辑:谭玉涵,兰素英,卢祥勇,易启江
因强大功能而爆红的ChatGPT正因数据隐私和安全风险在全球掀起一场监管风暴。
一周之内,意大利、德国、法国、爱尔兰等8国相继“出手”。此外,它还可能面临全球首例AI诽谤诉讼。据悉,马斯克此前发起的暂停训练比GPT-4更强大的AI系统的公开信响应人数仍在不断增加,截至发稿,已有超1.8万人签名。
意大利监管方是出于何种考虑?AI会出现意识吗?《每日经济新闻》记者连线爱尔兰数据保护委员会以及中国人民大学高瓴人工智能学院教授卢志武进行解读。
人工智能的未来,充满巨大想象空间。图为第六届世界智能大会上,参会嘉宾在参观展览 新华社图
8国“围剿”ChatGPT
因强大功能而爆红的ChatGPT正因数据隐私和安全风险在全球掀起一场监管风暴。
继意大利宣布暂时封禁ChatGPT之后,德国也表示正在考虑暂时禁用。紧随其后,法国、爱尔兰、西班牙等欧洲国家的监管机构也相继表达了类似可能性。与此同时,加拿大的隐私监管机构已经宣布对OpenAI展开调查,美国方面也在探讨加强对AI的监管。不仅如此,由于生成了虚假内容,ChatGPT恐将在澳大利亚面临全球首例诽谤诉讼。
此外,马斯克、图灵奖得主本吉奥等1000余名科技大佬还发表联名公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。截至发稿,这份公开信的签名人数已超18000人。
“我们正在关注意大利监管机构的行动,以了解其行动背后的理由。在ChatGPT这件事情上我们将和欧盟所有的数据保护机构协作。”爱尔兰数据保护委员会(DPC)对《每日经济新闻》记者表示。
意大利对ChatGPT的禁令,掀起了一轮针对OpenAI的监管风暴,德国监管机构已计划跟进,表示正在考虑暂时禁用ChatGPT,紧随其后,法国、爱尔兰、西班牙等欧洲国家的数据监管也相继表达了类似担忧。
OpenAI面临的压力可谓与日俱增。除欧洲外,加拿大方面已经采取行动,其隐私监管机构宣布因数据违规问题对OpenAI展开调查。而在美国,拜登也会见了科技顾问,讨论AI带来的风险和机遇,并表示将加强监管。
为了打消疑虑和担忧,OpenAI也在积极行动。当地时间4月5日晚,OpenAI CEO萨姆·阿尔特曼表示将于次日向意大利数据保护局提交相应措施。意大利数据保护局表示将评估OpenAI的方案,该机构同时强调,他们无意阻碍人工智能技术的发展。同日,OpenAI还在官网发布了题为《我们保障AI安全的方法》的文章,介绍了该公司为保障安全性在六个方面进行的部署。
但在隐私和数据安全之外,ChatGPT生成错误事实的“幻觉”问题也开始在现实世界中掀起波澜。
据路透社4月5日报道,澳大利亚赫本郡市长布赖恩·胡德(Brian Hood)称在ChatGPT生成的内容里,自己因贿赂东南亚官员而被判处30个月监禁,这与事实完全不符,但“其中有些段落却是绝对精确的,包括数字、姓名、日期、地点等”。
胡德表示,如果OpenAI不纠正ChatGPT关于其曾因贿赂入狱服刑的虚假说法,他可能会起诉OpenAI,这将是针对生成式AI的第一起诽谤诉讼。
对于意大利暂时封禁ChatGPT的做法,中国人民大学高瓴人工智能学院教授、首个中文通用多模态预训练模型“文澜BriVL”的主要设计者卢志武认为这并不明智。
“一个新技术总会有好的和不好的方面,不能说因为有不好的地方就把它禁掉。汽车会造成车祸,难道就因此把汽车禁掉吗?欧洲本来在AI方面就落后于美国,与中国也有差距,禁掉之后不是会更差么?”他对《每日经济新闻》记者解释称。
“像隐私问题和AI生成内容以假乱真的问题,可以通过法律手段去约束AI模型,这样研发者在训练模型时就会规避这些风险。”卢志武进一步说道。
此外,法律还可以规定使用者必须对AI生成的图片和视频等内容进行标注,假如国家法律部门检测到未标注的生成内容,可以采取惩罚措施。“特别是新闻相关的内容,一定不能是AI生成的,否则就乱套了,成为了假新闻。”卢志武表示。
卢志武认为,AI法律完善的目标就是让AI的开发者和使用者都“心里有数”,但对于新生事物的法律监管有滞后性,这在AI上也不例外。
针对AI生成内容的事实错误问题,卢志武认为可以通过工程手段解决,比如先利用搜索引擎去搜索互联网上的档案性内容,然后再利用这些内容生成答案,这样能在很大程度上消除事实性错误。
自我迭代更可怕?
数据安全和错误内容是生成式AI带来的紧迫而现实的问题,但尚可以通过技术和法律手段加以规避。随着AI技术的飞速发展,人类可能面临从未遇到过的新威胁。
近日,马斯克、图灵奖得主本吉奥等1000余名科技大佬发表联名公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。公开信指出,AI最终可能超越人类,使人类失去对文明的掌控能力。截至发稿,这份公开信的签名人数已经超18000人。
卢志武对《每日经济新闻》记者称,这份公开信的目的是呼吁大家重视大语言模型的安全性,但实际上没有操作性,因为没有相应的全球权威机构出面来暂停大型AI模型的实验。
在ChatGPT展现出强大的对话能力时,人类也越来越担心:会不会AI系统在迅速进化的过程中“涌现”出自我意识?
“未来有没有我不敢说,但至少从GPT-4来看,它是不会产生意识的。”卢志武对记者表示。“但我们开发AI的终极目标是实现AGI(通用人工智能),就是让AI模型表现得像人一样。如果要达到这个目标,那么这个过程中真的有可能失控。”
在卢志武看来,所谓的失控并不是AI出现意识,而是AI学会了自我迭代。“AI模型自己不停地学习,甚至创造出新的东西来,而这个过程又在人类的监控之外。这种自我学习是非常容易实现的,我觉得这才是AI最大的威胁。”
近日,研究人员Noah Shinn和Ashwin Gopinath在预印本网站arxiv提交论文称,通过引入“反思”技术,GPT-4在多项高难度测试中的表现提升了30%。据悉,这种技术让AI系统模仿人类的自我反思,并评估自己的表现,“GPT-4在完成各种测试的时候,会增加一些额外的步骤,让它能够自己设计测试来检查自己的答案,找出错误和不足之处,然后根据发现来修改自己的解决方案。”
卢志武认为,AI学会自我迭代所产生的后果难以具体想象,但如果一个东西在不停地变强而人类却不知道,这是“最可怕的”。未来,假如AI模型和机器人进行结合,则AI就可以产生动作,“你都不知道它是不是会拿起枪来做什么事情”。
而实际上,科学家已经在探索如何将生成式AI与机器人相结合。微软的科学家2月份发布论文称,他们正在研究利用ChatGPT来操控机器人,以实现以自然语言与机器人交互的目的,并展示了无人机和机械臂的操作案例。
Copyright © 2008-2020 【新宝配资】深圳海商汇创新投资有限公司 粤ICP备18158468号-1 股市有风险,投资需谨慎