当前位置: 首页 » 资讯 » 科技 » 正文

风险社会视域下大规模语言模型的治安风险与多元治理——以ChatGPT为例

放大字体  缩小字体 发布日期:2023-08-23  浏览次数:39
核心提示:国家安全体系与能力现代化是我国到2035年基本实现现代化目标的重要组成部分。统筹发展和安全,防范化解重大安全风险,为实现中国
 “国家安全体系与能力现代化”是我国到2035年基本实现现代化目标的重要组成部分。统筹发展和安全,防范化解重大安全风险,为实现中国式现代化提供安全保障具有重要意义。随着科学的不断进步,人工智能技术的发展速度超乎人们的想象,但同时不可避免给社会带来了潜在的风险。人工智能的目标是建立一个可以普遍理解和解决新任务的系统。自20世纪50年代图灵测试提出以来,人们始终在探索机器智能处理语言的能力,但人类的语言是一个错综复杂的表达系统,开发精通语言的算法面临着巨大挑战。
 
自2018年以来,国内外超大规模预训练模型参数指标不断创出新高,涌现出例如谷歌T5、OpenAI GPT系列等大规模语言模型。ChatGPT自2022年末提出以来,因其具有远超其他类型AI的语言处理能力,引发公众极大关注,带来大型语言模型时代的变革。ChatGPT3.5以及GPT4的出现,将大规模语言模型推向舆论浪潮。此类大模型出现了中小模型不具有的能力——“自然理解人类的语言”。大规模语言模型技术的突破,给人们带来巨大的收益与成就的同时,也注定引发财产损失、秩序紊乱等治安风险。
 
1986年,德国社会学家乌尔里希·贝克出版了《风险社会》,其所提出的“风险”、“风险社会”等经典社会学理论,目前仍为学术界的热门话题。风险社会理论认为现代性在高速发展的同时,其所产生的副作用也正在摧毁现代性自身的根基,使人类失去了安全的保证,生活在一个充满风险的社会之中,因此,大规模语言模型所带来的风险应当引起我们关注。本文基于风险社会理论,以近来备受关注的ChatGPT为例,探讨大规模语言模型所存在的治安风险及治理策略。
 
    1 风险社会理论
“风险社会”的概念由德国社会学家乌尔里希·贝克提出,他认为现代社会正在向风险社会演变,风险将平等对所有人产生影响,这引发学界广泛的讨论和研究。
 
     1.1 风险的概念
“风险”是乌尔里希·贝克的风险社会理论的核心概念。乌尔里希·贝克认为,风险是一种系统性的问题,人们无法预知到行动所带来的后果,并无意去承担后果;同时,乌尔里希·贝克指出风险不是一种已经发生或将来肯定发生的确定性的行为,而只是暗示存在着出现破坏性后果的一种可能的未来。乌尔里希·贝克对风险的概念界定在经历了从经验角度出发的归纳后,试图从理论角度出发为风险下一个定义,即风险是预测和控制人类活动的未来结果,激进现代化的各种各样、不可预料后果的现代手段,一种拓殖未来(制度化)的企图,一种认识的图谱。
 
     1.2 风险的特征
上述对风险的定义表明了风险可能具有的特征。首先风险具有人为性和多样性。在传统社会中,人们面临的风险主要来自自然灾害,人力无法企及,人类无法左右“天然风险”,但随着人类对现代性的追求,在各个领域创造出许多新兴技术,这在创造便利的同时也为人类带来风险。
 
其次是全球性。乌尔里希·贝克指出,人类的不断合作与风险威胁人类社会的存在是同时的。随着全球化的发展,各个国家、地区之间的联系不再局限于时间、空间和意识形态的限制,形成一个又一个的利益共同体,同时利益共同体之间为了各自的利益进行博弈。风险的全球性特征注定个人是无法规避所有风险,需要全人类共同合作努力规避风险。
 
最后是无法预知性、不可控制性。不同于以往社会的人们可以直观感受到的风险,人类几乎感知不到现代风险,甚至其所造成的危害影响今后多长时间都无法预知,需要时间去验证一切,这本身就给人类带来巨大风险。同时,对于有些现代风险,人类目前的技术还无法控制。
 
    2 大规模语言模型(ChatGPT)概述
     2.1 大规模语言模型(ChatGPT)概念
2022年末,OpenAI发布的大型语言模型 ChatGPT,因其远超其他同类型AI的“类人”程度,一经推出便引发学术界以及产业界极大关注。大语言模型指的是那些在大规模文本语料上训练、包含百亿级别(或更多)参数的语言模型,例如ChatGPT,PaLM,LLaMA等。ChatGPT主要以文字方式交互,可以和人类进行自然对话,还可以从事复杂的语言工作,包括自动文本生成、自动问答等多种任务。在自动文本生成方面,可根据用户要求生成论文、代码、剧本、企划等;在自动问答方面,ChatGPT可自动理解用户问题,并给出相应答案。
 
     2.2 大规模语言模型(ChatGPT)特点
ChatGPT备受关注的原因在于其利用海量数据捕捉语言字符之间联系,从而使其完全不同于以往只是因特定任务而设计的传统语言模型,使人们在语言方面直观感受到人工智能的“智能”,而不像以往的语言模型那样让人评论为“人工智障”。ChatGPT作为一种生成式AI,能够根据人们个性化需求给出个性化的答案,将AI与人之间的互动难度降至几乎“零门槛”,能够帮助人类做许多工作,给予人们极佳的用户体验感。并且,在人们运用ChatGPT的同时,其会根据人们输入信息进行再学习训练,最终形成“训练—应用—再训练”,人们越频繁使用ChatGPT,其能够用于学习训练的数据集越多,功能越强大,从而人们越喜欢用、越频繁使用,形成良性循环,最终使得ChatGPT功能越来越强大。
 
    3 理论嵌入:ChatGPT治安风险
风险社会下,大规模语言模型在便利人们学习、生活和工作的同时,也给人们带来了潜在的治安风险。目前,ChatGPT在2023年4月份的全球访问量,达到17.6亿次。虽然我国目前尚未开放ChatGPT的官方访问权限,但在风险全球化情况下以及部分国人通过各种各样的方式接触并使用,需要我们未雨绸缪,提前介入,全方位识别治安风险,提前谋划、实施相关对策,及时进行风险防控,将其可能造成的损失降到最低。因此,本文以ChatGPT为例,探讨其所具有的治安风险及防范。
 
     3.1 政治安全风险
ChatGPT作为一个自然语言处理模型,需要在大量的数据集下进行训练,这些数据集决定了训练出模型的语言处理能力和风格,即模型在何种语境下进行交流。ChatGPT的训练数据集,主要以国外的数据集为主,而我国践行有别于西方政党制度和政治道路、并且尚未实现祖国统一大业,西方世界为遏制中国发展,网络中充斥着大量与我国真实情况不相符的信息。这就会使ChatGPT受数据集的影响,导致其在意识形态方面存在安全隐患并可能会影响到使用ChatGPT的人的思想观念,从而具有政治安全风险。
 
 
 
同时,随着计算机技术的飞速发展,各行各业离不开“数字”赋能,政府工作也同样如此。在数字政府建设过程中,需要利用大数据、云计算、区块链以及人工智能等技术,以ChatGPT为例的聊天机器人,有助于服务工作人员提高数字政府建设的效率与效果。如果此类聊天机器人介入,为工作人员带来便利的同时,也会带来数据隐私、安全问题以及技术漏洞和风险。数字政府建设需要大量处理和存储大量敏感个人信息,一旦这些信息泄露或被滥用,将对个人隐私造成严重威胁。同时数字政府建设的技术架构如果存在安全漏洞,技术信息被ChatGPT泄露,使得系统被黑客攻击或技术问题造成瘫痪,将给政府管理和公共服务带来极大损失。这都将给政治安全带来风险隐患。
 
     3.2 个人安全风险
ChatGPT的应用,使得国内部分人想要尝试,但又无法直接使用,犯罪分子利用人们的这个心理,制造虚假的、虚构的ChatGPT让人们付费使用从而骗取人们的金钱,使人们的财产安全处于一定的风险之下。同时使用人在通过ChatGPT问答的方式更加容易了解、学习知识,但也更加便于将学到的知识用于其他使用中,如炸药的制作,并且可能学习到部分犯罪领域的知识,给他人生命、财产安全带来风险。同时,ChatGPT可以草拟出与真人一样文本文案甚至个人的讲话、写作风格,从而容易被犯罪分子利用来生成邮件、信息等进行诈骗,进行网络钓鱼。
 
人们在使用ChatGPT的同时还面临着数据泄露的风险。ChatGPT进行训练的数据集是通过爬虫技术在互联网中获得,这本身就存在着数据泄露的风险。同时人们在对ChatGPT了解不足、安全意识较低的情况下,与其无限制交互,将大量个人、单位的数据提供给ChatGPT,这其中就有可能无意识地将用户个人信息泄露,使个人隐私信息安全处于安全风险之中,最终可能导致治安事件的发生。
 
     3.3 网络安全风险
ChatGPT对于计算机行业者来说是一个很好的帮手,其可以根据指令要求,使用各种的编程语言生成所需代码,并且可以帮助加强欺诈等网络犯罪的监测。技术是中性的,重要的是技术掌握在什么样的人手里。ChatGPT在给技术人员提供便利的同时也给网络犯罪分子可乘之机。犯罪分子为获取巨大利益利用ChatGPT制作恶意代码、生成不良网站,在全球进行网络犯罪。ChatGPT较强的逻辑推理能力,还可以完善相对复杂的网络犯罪布局,强大的代码编写和逻辑推导能力,很有可能导致网络秩序混乱。
 
网络中的不法分子还可以利用ChatGPT可以根据指令输出“类人化”语言的能力,在网络社交媒体上进行舆论引导。这要比传统的网络机器人速度更快、内容更加具有逻辑性,有时在舆论潮流中凭借其逻辑自洽、令人信服的论点和论据充当意见领袖,造成网络秩序混乱,网络信息真假难辨。这不仅影响网络安全,同时还会将治安风险蔓延到现实世界,进而发生群体性事件等治安事件。
 
ChatGPT自身的发展就是一种网络安全风险。随着算法的突破,ChatGPT在经过大量数据的“投喂”后,今后会发展到一个怎样的地步,不得而知。人类潜意识中的广泛信息以及语言中的“其他含义”在未来能否被ChatGPT完全理解从而被恶意网络攻击者利用,从事攻击行为,这都需要时间的解答。
 
    4 逻辑指导:ChatGPT多元治理
ChatGPT等大规模语言模型终有一天会深入到人们的工作生活当中,其所带来的治安风险需要我们未雨绸缪,从多方面入手进行风险管理,尽最大努力消除潜在隐患。
 
     4.1 法律层面:完善法律,明确边界
ChatGPT的有效治理,相关法律的完备性是基础。需要相关法律法规去规范ChatGPT的应用范围,对于违规使用的行为,需要有相关规定进行责任认定及处罚标准,将责任落实到个人。ChatGPT的技术在不断快速发展,从GPT1到GPT4,其功能越来越强大,但似乎与此相对应的法律法规并没有与时俱进,导致相关法律问题仍存在争议。从模型的算法到训练模型所需数据集再到模型的输出规则,都应有相关规定,确保模型本身以及生成内容合法合规,给人以正确导向。同时要强化责任追究机制。对于ChatGPT的开发者、提供商、使用者等相关方,应建立相应的责任追究机制,对于ChatGPT可能造成的人身伤害、财产损失、个人信息泄露等问题,应当依法追究相应的民事、行政和刑事责任。
 
     4.2 企业层面:攻坚技术,注重监督
企业层面对ChatGPT进行治理是确保其在业务应用中安全、可靠、合规和可控的重要手段。ChatGPT4是目前为止最为“类人化”的聊天机器人,能够在一定程度上理解人类的语言。同时,企业应该采取必要措施,确保ChatGPT的质量和安全。这包括对ChatGPT进行技术审核和测试、制定和遵守数据隐私和信息安全政策、确保ChatGPT在运行中不会对用户和业务产生负面影响等。遵守相关的法律法规和伦理准则,将法律法规和伦理准则融入到ChatGPT的治理机制中,以确保ChatGPT的应用合法合规。建立ChatGPT应用监控和反馈机制,及时发现和解决ChatGPT的应用问题。这包括建立应急预案、开展风险评估和风险管理、收集用户反馈和改进意见等。
 
总之,企业应该在ChatGPT的开发、应用和管理过程中,建立有效的治理机制。同时,企业也需要充分尊重用户和公众的权益,加强与用户和公众的沟通和合作,推动ChatGPT类大模型语言模型的健康和可持续发展。
 
     4.3 个人层面:提高认识,规避风险
个人层面,首先要认识到ChatGPT并不是一个完全安全的事物,需要对C hatGP T有一个全面的认识,明白与ChatGPT进行交互时所具有的治安风险。其次作为一名用户,不要在与ChatGPT交互时透露任何敏感信息,如密码、信用卡号码等、分享个人信息,如姓名、地址、出生日期等、透露地理位置或其他敏感信息,如家庭住址、工作场所等。最后,在使用ChatGPT过程中使用一个安全的网络连接,如受密码保护的Wi-Fi网络或移动数据网络,以避免网络窃听或拦截。不要在与ChatGPT交互时使用不受信任的第三方应用程序或浏览器插件,这些应用程序或插件可能会收集个人信息。
 
总之,尽管ChatGPT宣称其不直接处理用户的个人信息和数据,但为了确保个人信息安全,需要始终保持警觉并采取必要的安全措施。
 
     4.4 模型层面:精准过滤,控制输出
模型层面主要分为四个方面进行治理:
 
模型的数据来源和数据隐私保护。在构建ChatGP T模型时,需要使用大量的文本数据进行训练,因此需要确保数据来源的可靠性和数据的隐私保护。模型训练过程中应该遵循隐私保护的最佳实践,确保敏感信息不被泄露。
 
模型的可解释性和透明度。由于ChatGPT是一种黑盒模型,用户无法了解其内部运作和决策机制,因此需要开发出一些工具和方法来解释和可视化模型的决策过程,提高模型的可解释性和透明度,让用户能够理解模型的运作方式和决策过程。
 
模型的公正性和偏见消除。由于ChatGPT模型的训练数据往往来自于社交媒体、新闻网站等互联网上的公开文本,因此可能存在一些偏见和歧视性,导致模型输出的答案也存在偏见。为了提高模型的公正性和消除偏见,需要在模型训练和测试过程中采取相应的措施,例如数据清洗、样本均衡等。
 
模型的安全性和防范滥用。由于ChatGPT模型具有强大的自然语言处理能力,因此可能会被用于恶意目的,例如生成虚假信息、伪造身份等。为了确保模型的安全性和防范滥用,需要采取相应的技术措施,例如模型鉴别、过滤器、风险评估等,以便监测和阻止模型的恶意使用。
 
     4.5 应用层面:明确范围,伦理约束
应用层面的治理需要考虑以下几个方面:
 
应用场景和用户群体。ChatGPT可以应用于很多场景,例如在线客服、智能问答、情感分析等。不同的应用场景和用户群体需要有不同的治理措施,以满足不同用户的需求和保护用户的权益。
 
应用场景的监管和管理。对于一些需要严格监管和管理的应用场景,例如医疗、金融等,需要遵循相关法律法规和行业标准,确保应用的合法性和可靠性,避免出现违规行为。
 
应用场景的风险评估和控制。对于一些可能存在风险的应用场景,例如智能客服、社交媒体等,需要对应用场景进行风险评估和控制,制定相应的措施来防范和应对潜在的风险。
 
应用场景的用户教育和提示。对于一些可能存在误解和误用的应用场景,例如语音助手、虚拟人物等,需要对用户进行教育和提示,让用户了解应用的局限性和注意事项,避免出现误用和误解。
 
应用场景的责任和义务。对于一些可能涉及到用户权益和隐私的应用场景,例如智能客服、在线问诊等,需要明确应用方和用户的责任和义务,制定相应的隐私保护政策和用户协议,保护用户的权益和隐私。
 
    5 结束语
ChatGPT是大规模语言模型向前发展的必然产物,其作为语言模型是为人们提供服务的工具,本身是中性工具,关键在是人们运用此类工具的初衷。我们需要意识到此类工具具有的治安风险,将治安风险尽可能降到最低。这需要通过多方面、多层次力量共同合作,进行有效治理,将ChatGPT及类似大规模语言模型掌握在可控范围之中。
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐资讯
点击排行
 
网站首页 | 禁售产品总则 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 | 排名推广 | 广告服务 | 积分换礼 | 网站留言 | RSS订阅