金十数据8月28日讯,OpenAI和Anthropic近日互相对对方的模型进行了评估,以期发现自身测试中可能遗漏的问题。两家公司周三在各自的博客上表示,今年夏天,它们针对对方公开可用的AI模型进行了安全性测试,并检验了模型是否存在幻觉倾向,以及所谓“失准”(misalignment)的问题,即模型未按开发者预期运行。这些评估是在OpenAI推出GPT-5,以及Anthropic在8月初发布Opus 4.1之前完成的。Anthropic由前OpenAI员工创立。
风险提示及免责条款:市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。