集体小节目原创 迈克尔·欧·康奈尔 上海市法学会 东方法学 收录于合集 #2023世界人工智能大会法治论坛 19个
一般而言,人工智能专家对生成式人工智能的观点无外乎分为两派——生成式人工智能将要么极大地改善我们的生活,要么毁灭我们所有人,其核心在于我们对于人工智能进一步跨越式发展所产生的真正能力充满巨大的未知。可以预见的是,生成式人工智能的市场规模只会逐步扩大——所以作为一种能力,它将长期存在,并影响我们所有人的生活。然而,如何才能使人工智能变得安全?我们将面临哪些挑战?
首先是人工智能的定义一致性问题。目前关于人工智能的描述,众说纷纭、莫衷一是,没有一个公认的定义。我们需要就人工智能的定义及其最恰当的用法达成全球共识,在这方面开展国际合作。但是,我们目前还没有制定相关计划。建立一个全球性的、联合国式的人工智能监管机构,不同国家和地区对此也有不同的看法。欧盟提出了目前可能是最严格的提议,包括根据其影响对人工智能产品进行分级——例如,相比于癌症检测工具或面部识别工具,对垃圾电子邮件过滤器实施更宽松的监管。英国将人工智能监管纳入现有政府监管机构的职责范围——例如,认为受到技术歧视时,可以向平等委员会寻求帮助。美国仅仅制定了自愿规则,但在最近的人工智能委员会听证会上,立法者们承认他们担心自己能否胜任这项立法工作。中国已经提出了安全、合法、公平、正义的原则方法。
我们需要取得公众的信任——如何实现这一点?关键在于谁来制定相关规则——政府、工业界、学术界,还是各界人士一起制定?我们确实需要快速采取行动,但是也需要建立能够与之相匹配的道德规范。包括OpenAI和谷歌Deepmind负责人在内的专家们发出警告称,最近有许多人对于发展生成式人工智能感到担忧,有人说这可能会导致人类的灭绝。许多人支持面向全球发表的AI风险声明,该声明里写道:“减轻由人工智能导致灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”但也有人认为这种担忧被夸大了。ChatGPT的开发商——OpenAI首席执行官萨姆·奥特曼(Sam Altman)、谷歌DeepMind首席执行官戴密斯·哈萨比斯(Demis Hassabis)和Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)都支持这一声明。那么,我们如何才能找到一条合理的前进道路?我们能否基于普遍认可的安全使用的道德标准,建立一个合适的基础?
为了回应其中一些不确定性,在联合国区域间犯罪和司法研究所,我们试图从了解人工智能在具体行业领域的发展动态入手——AI在执法部门中的使用,该领域是AI在医学领域之外最重要的应用领域之一。在这个过程中,我们试图回答使用AI的基本问题,即对他们来说什么是人工智能。我们可以从中了解到在生成式人工智能赋能方面可能面临的类似挑战。我们遵循以用户为中心的方法,从核心技术层面研究了各种应用。例如:使用新一代机器人摄像机对可能过于危险或警察难以到达的潜在犯罪现场进行视听监察;福特汽车公司已为一款配备人工智能的自动驾驶警车申请了专利,该警车旨在通过向人类警官传输信息或选配携带一名可采取逮捕行动的警官,来及时发现捕捉交通法规的违规者或受伤的司机;物联网和智能传感器可以收集更多所需数据,更快地将信息提供给警方以辅助决策——记录位置、监听枪声、获取监控视频、标记值得关注的汽车牌照、扫描数据库,并实现虚拟巡逻……“让警方对其所处环境拥有前所未有的认识”;此外,量子计算和区块链服务将有助于提高安全性。
在我们的研究和咨询过程中,我们清楚地认识到,犯罪迅速演变、高度复杂,不法分子和也越来越广泛地使用人工智能,这给警方带来了巨大的挑战。目前,警方采用人工智能的常见方法并未针对人工智能的安全和负责任使用进行优化。他们采取的是技术至上的方法,几乎没有考虑到任何道德原则,而且有不同的基本原理,这导致AI普遍应用的基础不确定,也导致公众和监管机构对其缺乏信任。因此,我们需要考虑另一种方法,其核心在于责任。该方法由原则驱动,尊重人权和道德需求,维护法治原则,促进公众信任,以良好政策和有效程序为指导来影响技术选择,并共同增强公众信任和用户信心。
关键在于意识到我们必须负责任地使用人工智能,以减少伤害,保护社会,而不是在我们所珍视的安全和保障的价值上增加妥协的风险。必须负责任地使用AI,为实现这一理想目标,在联合国区域间犯罪和司法研究所,我们与国际刑警组织以及项目发起人——欧洲联盟一起采取了勇敢的行动。我们建立了人工智能工具包倡议,其目的是发展和衍生出负责任的人工智能创新。
什么是工具包倡议?从国际警务同事那里得到的反馈清楚地表明,我们所需要的是这样一种工具包:以操作为导向;实际而非假设;交互式地、动态地促进使用;立足于现实,利用人工智能在该领域的实际应用的具体实例来推动人工智能的说明和应用。在制定发展计划时,我们需要一些重要里程碑,这是成功的关键。首先,关键的利益相关者,警方、学术界、工业界、公众、监管机构、非政府组织或隐私保护倡导者都需要参与,我们与他们都进行了多次全球互动会议。我们需要公众——为此我们需要倾听、学习和运用,以最好地满足他们的需求。其次,我们需要增强意识——AI技术将持续存在,应当从一开始就正确使用这项技术。我们需要对工具包进行严格的测试,使其符合我们的目标。15个地理位置良好的国家已自愿使用工具包,且处于不同的发展阶段。最后,我们需要将工具包付诸实施,为此,我们提供实地培训,以确保工具包顺利交付和使用。我们将考虑欧洲警察学院(Cepol)及其他全球培训伙伴的参与,使其与国际刑警组织和联合国区域间犯罪和司法研究所合作开展这些活动。我们通过全生态系统的协商过程,提供适用所有人的方案。来自全球各地的重要合作伙伴都提出了宝贵的见解、问题和指导。
工具包的主要目标受众是整个警察家族——从警察局长到使用这些系统及其赋能的人。局长需要了解他们具备哪些人工智能赋能,这些赋能可能带来的风险,以及如何最好地使用它们以减少伤害。局长需要具备整个组织层面的管理方法,以管理这种风险,并确保这些昂贵工具的投资得到最佳回报。我们需要建立良好的治理结构,以确保合法使用,并让在现场使用解决方案的人知道他们在活动中得到了警察机构的支持。
工具包将包含如下内容:三份指导文件、一份原则解释的支持性文件、两个互动工具和自我评估、一本工作手册。总的来说,它们提供了一个强大的即用型组合,有助于确定AI在执法环境中的定义,评估组织在设计、开发和使用这些复杂技术方面的韧性,以及负责任地管理其风险和使用。总结而言,我们为合乎道德和负责任地使用AI建立了如下可作为通用基础的关键原则:AI的使用必须符合任何相关法律,必须在必要的情形下使用,且仅用于满足具有真正价值的特定需求;把AI使用带来的伤害降到最低;确保AI使用公平,不存在歧视;确保人类控制和个体自主;良好管理AI使用,遵循跨领域的道德原则。
6月2日,在新加坡国际刑警组织警务技术峰会上,我们与联合国区域间犯罪和司法研究所一起推出了第一版工具包。如今,我们在全球各地的试点国家开始测试该工具包,后续将在今年秋季对其加以完善后发布第二版工具包。联合国区域间犯罪和司法研究所和国际刑警组织的项目团队坚信,随着生成式人工智能不断发展,我们能够并且已经为其安全使用建立了适当的基于道德的基础,这个重要的项目将具有广泛的可借鉴意义。
原标题:《演讲直击|迈克尔·欧·康奈尔:生成式人工智能安全使用的伦理基础》
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。
|