1最近几个月,AIGC变得越来越火爆,几乎无所不在,而且功能也越来越强大。
2AI热潮开始遇到反弹,包括马斯克等人的公开叫停、意大利监管机构全面封禁。
3高盛估计,AIGC将导致数千万人失业,行政支持和律师助理工作最有可能被取代。
4欧洲刑警组织警告AIGC技术可能被用于帮助犯罪,从欺诈到发动网络攻击等。
腾讯科技讯 4月6日消息,在过去的六个月里,强大的新型AI工具数量始终在以令人震惊的速度激增。从进行类似真人之间对话的聊天机器人,到自动运行软件的编码机器人,再到可生成热门图片的图像生成器,所谓的生成式人工智能(AIGC)突然之间变得无处不在,而且功能越来越强大。
然而,从上周开始,这股AI热潮开始遭遇反弹。以亿万富翁埃隆·马斯克为首的数千名技术专家和学者签署了一封公开信,警告“人类面临的巨大风险”,并呼吁暂停AI语言模型开发六个月。一家AI研究非营利组织向美国联邦贸易委员会提交了投诉,要求调查ChatGPT开发公司OpenAI,并停止其GPT-4模型的进一步商业发布。同时,意大利监管机构以侵犯数据隐私为由,全面封禁ChatGPT。
好消息与坏消息
这些试图阻止或暂缓AI研究的行为可以理解。几年前,这类AI技术看起来还好像是天方夜谭,令人难以置信。然而今天,它们正在迅速渗透到社交媒体、学校、工作场所甚至政治领域。许多关注这些变化的人士甚至给出最悲观的预测,AI或许会导致人类文明毁灭。
好消息是,我们对这种全能AI的炒作和恐惧可能被夸大了。尽管它们的能力给人留下了深刻印象,但谷歌Bard和微软必应距离成为天网那样强大的存在还有很长的路要走。
坏消息是,我们的确应该对AI的快速进化保持警惕。这不是因为AI将变得比人类更聪明,而是因为有些人已经在以我们尚未准备好如何应对的方式来滥用这种技术。而且,人们认为AI越强大,人们和企业就越有可能将其无法胜任的任务托付给它。
便宜高效并非总是更好
关于AI对可预见的未来如何产生影响方面,我们可以先把末日预言放在一边,看看上周发布的两份报告。其中,美国投行高盛的报告阐述了AI对经济和劳动力市场的影响,欧洲刑警组织则警告该技术被滥用于刑事犯罪的可能性。
从经济角度来看,最新的AI浪潮是关于将曾经只能由人类完成的任务自动化。与动力织布机、机械化装配线和自动取款机一样,AIGC有望以比人类更便宜、更高效的方式完成某些类型的工作。
然而,更便宜、更高效并非总是意味着更好,任何与杂货店自助结账机、自动电话应答系统或客服聊天机器人打过交道的人都可以证明这一点。AIGC与过去自动化浪潮的区别在于,它可以模仿人类,甚至在某些情况下可以冒充人类。这既会导致广泛的欺骗,也会诱使雇主将AI视为人类的替代品,即使事实并非如此。
高盛的研究分析估计,AIGC将改变全球约3亿个工作岗位,使数千万人失业,但也将推动经济显著增长。不过,许多人对此表示怀疑,毕竟高盛的预测也并非总是准确。2016年时,高盛曾预测,虚拟现实头盔可能会像智能手机那样变得无处不在,但这种情况至今未出现。
但在高盛的AI分析中,有趣的地方在于它对各个行业进行了细分,即哪些工作可能被语言模型增强,哪些工作可能被完全取代。
该行的研究人员将白领任务的难度分为1到7级,其中“审查表格的完整性”为1级,“在法庭上就一项复杂的动议做出裁决”为6级。他们将可能被自动化的任务的难度级别设置为4级,据此得出的结论是,行政支持和律师助理工作最有可能被AI取代,而管理和软件开发等职业的工作效率将会大幅提高。
这份报告还以乐观的口吻表示,随着企业从掌握AI技能的员工身上获得更多收益,这一代AI最终将使全球GDP增长7%。但它也预计,大约7%的美国人会发现他们的职业在这个过程中被淘汰,更多的人将不得不学习该技术以维持就业。换句话说,即使AIGC带来的影响多是积极的,其结果也可能导致大量员工失业,以及机器人逐渐取代办公室和日常生活中的人类。
不可避免被用于犯罪
与此同时,已经有些公司急于走捷径,尝试将AI无法处理的任务自动化,比如科技网站CNET自动生成错误百出的财经文章。当AI出现问题时,已经被边缘化的群体可能会受到更大影响。
尽管ChatGPT及其同类产品令人感到兴奋,但当今大型语言模型的开发商还没有解决数据集存在偏见的问题,这些数据集已经将种族歧视等偏见嵌入到人脸识别和犯罪风险评估算法等AI应用程序中。上周,一名黑人男子因为面部识别系统失误而被错误监禁。
在某些情况下,AIGC也将被用于故意伤害。欧洲刑警组织的报告详细介绍了该技术如何被用于帮助人们犯罪,从欺诈到发动网络攻击等。
例如,聊天机器人能够按照特定人群的风格生成文本,甚至模仿他们的声音,这可能使其成为网络钓鱼诈骗的有力工具。语言模型在编写软件脚本方面的优势可能使恶意代码的生成大众化。他们能够提供个性化的、情境化的、循序渐进的建议,对于那些想要闯入民宅、勒索某人或制造炸弹的罪犯来说,他们可以成为万能指南。我们已经看到,有些合成图像如何在社交媒体上传播虚假信息,重新引发了人们对深度造假技术可能扭曲竞选活动的担忧。
值得注意的是,语言模型容易被滥用的原因不仅仅是因为它们更智能化,还因为它们本身存在基本的智力缺陷。经过训练,当领先的聊天机器人发现有人企图将其用于邪恶目的时,会保持沉默。但正如欧洲刑警组织指出的那样,“只有在模型理解它在做什么的情况下,防止ChatGPT提供潜在恶意代码的保障措施才会起作用” 。
千万别太高估AI的能力
考虑到所有这些风险,即使有些人不相信世界末日的场景,也会支持放慢AIGC研究的步伐,让社会有更多时间适应这种技术。OpenAI本身是作为非营利性组织成立的,但前提是AI可以更负责任的态度构建,而不会有实现季度收益目标的压力。
但OpenAI现在正成为AI竞赛的领先力量,科技巨头也正在裁减他们的AI伦理学家,无论如何,这匹马可能已经离开了马厩。正如学术人工智能专家萨雅什·卡普尔和阿尔温德·纳拉亚南所指出的那样,现在语言模型创新的主要驱动力不是追求越来越大的模型,而是将我们现有的模型集成到各种应用程序和工具中。他们认为,监管机构不应该像遏制核武器那样遏制AI的发展,而是应该从产品安全和消费者保护的角度来看待AI工具。
也许在短期内最重要的是,技术专家、商业领袖和监管机构都要摆脱恐慌和炒作,更深入地了解AIGC的优点和缺点,从而在采用它时更加谨慎。如果AI继续发挥作用,无论如何都将是颠覆性的。但高估其能力只会使其危害更大,而不是更小。