在(zai)全球人工智(zhi)能行业竞(jing)争日益激烈(lie)的背景下,OpenAI近(jin)日被曝出大幅缩短其大型语言模型的安全测试时间(jian),引发了业界的广泛担忧。
根据英国金融时报11日的报道,OpenAI在(zai)评估其最新语言模型的安全性时,仅给予内部员工和第三方测试人员几天的时间(jian)完(wan)成评估。这一做法与之前数月的审核(he)流程形成鲜明对比。
报道援(yuan)引一位即将为推出的o3模型进行测试的人士(shi)表示:
"当(dang)(技术)不那(na)么重要时,大家进行了更彻底的安全测试。"
"当(dang)(技术)不那(na)么重要时,大家进行了更彻底的安全测试。"
随着大型科技企业如Meta和谷歌、以及xAI争相推出先(xian)进的AI技术,OpenAI正面临巨大的压力,迫切(qie)需要在(zai)安全与速度之间(jian)寻求平衡。
AI大模型竞(jing)争压力下,OpenAI安全测试时间(jian)缩短
GPT-4在(zai)推出前,测试人员有六个月时间(jian)进行评估。而现在(zai),OpenAI计划最早下周就发布新模型o3,一些测试人员的安全检查(cha)时间(jian)不到一周。
一位曾测试GPT-4的人士(shi)指出,一些危险功能直到测试两个月后才被发现:
"他们完(wan)全不把公众安全放在(zai)优先(xian)位置。"
"他们完(wan)全不把公众安全放在(zai)优先(xian)位置。"
这一转变引发了对AI技术潜在(zai)危害及其武器化的担忧,部分测试人员对当(dang)前的做法表示惧(ju)怕,认(ren)为这是一种“灾难性的失误(wu)”。
分析认(ren)为,OpenAI的这一策略显然是在(zai)竞(jing)争压力下做出的反应。随着AI领(ling)域的快速发展,特别(bie)是针对复(fu)杂任务的能力日益增强,市场(chang)对模型快速发布的需求再次加剧。
前OpenAI研究员、现任非营利组织AI Futures Project负责人Daniel Kokotajlo表示:
"没有法规要求企业向公众通报所有可怕的功能……而且他们面临着激烈(lie)的竞(jing)争压力,所以他们不会停止开发更强大的能力。"
"没有法规要求企业向公众通报所有可怕的功能……而且他们面临着激烈(lie)的竞(jing)争压力,所以他们不会停止开发更强大的能力。"
然而,这种急于求成的态度,可能会让原本(ben)经过仔细审查(cha)的技术走向失控(kong)。行业观察者指出,人工智(zhi)能模型的开发应当(dang)遵循既(ji)定的安全标准,而不是在(zai)“竞(jing)争压力”驱动下变得草(cao)率。
目前,全球范围内尚无统一的AI安全测试标准。尽管欧盟的AI法案将在(zai)今年稍(shao)晚强制要求企业对其最强大的模型进行安全测试,OpenAI等AI企业在(zai)此之前已经与英美两国政府达成了自愿(yuan)承诺,允(yun)许研究人员对其模型进行测试。但这样的自我监管能否有效保护公众安全,仍然充满不确定性。
正如前OpenAI研究员Daniel Kokotajlo所言:
“他们在(zai)追求竞(jing)争优势的同时,已经完(wan)全忽(hu)视(shi)了公众安全。”
“他们在(zai)追求竞(jing)争优势的同时,已经完(wan)全忽(hu)视(shi)了公众安全。”