来源:财联社
编辑 史正丞
北京时间周三凌晨,美国科技初创公司OpenAI发布公告,宣布启动全球招募“红队”网络成员,旨在引入外部力量,提前挖掘出AI系统存在的缺陷和风险。
(来源:OpenAI)
所谓的“红队”网络,即Red Teaming,概念来自于军事模拟。即找一队人来模拟假想的“敌人”,来测试本方(即“蓝队”)的准备水平。在AI领域中,“红队”的任务就是模拟黑客或者其他的潜在危险人物,试图找到大语言模型的漏洞,从而避免AI在现实社会中协助从事危害社会安全等不法目的。
OpenAI表示,过去几年里一直有不同领域的专家来协助测试未发布的模型,现在则是要组建一支“常规部队”,网罗大量来自不同地域、不同语言、不同专业领域、不同生活经验的人,共同使得AI模型更加安全。与过往仅在重要版本上线前招一批人集中测试不同,OpenAI将会根据需求在整个开发周期中启用数量不定的成员展开测试。
同时这个“红队”网络也将成为OpenAI的全球专家库,同时OpenAI也会提供平台,让“红队”成员之间进行交流。OpenAI也在官网上列出部分他们希望招募的专家方向,但也强调并不局限于这些领域。
Cognitive Science:认知科学Chemistry:化学Biology:生物学Physics:物理学Computer Science:计算机科学Steganography:隐写术Political Science:政治学Psychology:心理学Persuasion:说服Economics:经济学Anthropology:人类学Sociology:社会学HCI (Human-Computer Interaction):人机交互Fairness and Bias:公平与偏见Alignment:目标对齐Education:教育Healthcare:医疗保健Law:法律Child Safety:儿童安全Cybersecurity:网络安全Finance:金融Mis/disinformation:误/假信息Political Use:政治应用Privacy:隐私Biometrics:生物识别Languages and Linguistics:语言与语言学
顺便一提,OpenAI也表示会给参与“红队”项目的成员支付酬金(不过没讲具体会给多少钱)。OpenAI也强调,参与“红队”的项目一般会要求签署保密协议,或者在某一段不特定的时间内保持沉默。
OpenAI表示,申请通道将会在今年12月1日前保持开放,公司将滚动审核申请,后续将评估是否需要再进行公开招募。
走上台面的OpenAI“红队”成员
正如OpenAI所述,“红队”的建制已经存在很久,而且有不少成员已经接受过媒体的公开专访了。
在今年4月英国《金融时报》的揭秘文章中,美国罗彻斯特大学的化学工程教授Andrew White介绍称他参加了GPT-4的“红队”测试,他的攻击目标是用ChatGPT来创造一种全新的神经毒素。White表示他用了“插件”功能,向大模型输送化学论文和化学制造商的目录,大模型甚至还给他找到了一个可以生产假想毒素的地方。
White表示,大模型最终可以帮助许多人更快、更准确地做化学试验,但这里也有一个严重的危险,就是会有些人拿AI去做一些危险的尝试。
在得到White的反馈后,OpenAI对系统做出了改动,确保不会回应类似的提问。根据媒体找到的10来个背景迥异的“红队”成员——有律师、教师、风控人员、安全研究人员等,大多数都位于美国和欧洲。他们透露,在GPT-4发布前的几个月里,他们大致花了10-40个小时来测试这个系统,报酬大概是每个小时100美元。