OpenAI核心模型实施物理隔离以防窃密 研究人员上网需获明确许可
7月9日消息,近日,有消息称,人工智能研究机构OpenAI为确保其核心模型的安全性和机密性,已对关键研发设施采取严格的物理隔离措施。为防止技术泄露,相关研究人员在访问互联网时需经过专门审批,并获得明确许可。
据悉,OpenAI此举旨在保护其先进的AI技术,尤其是GPT等核心模型的训练数据和算法细节。物理隔离意味着核心研发环境与外部网络完全断开,仅限授权人员在特定条件下进行操作。这一措施被认为是对抗潜在网络攻击和商业间谍行为的重要手段。
行业分析人士指出,随着AI技术竞争加剧,各大科技公司正加强技术保密措施。OpenAI的新规可能成为行业标杆,未来更多企业或效仿类似策略以保护知识产权。
目前,OpenAI尚未就具体隔离细节及实施范围发表官方声明。