美国技术巨头组建“AI管控联盟” 确保安全、负责任地研发前沿人工智能(AI)模型 2023年07月28日  

  美国开放人工智能研究中心(OpenAI)、谷歌、微软和Anthropic公司26日宣布创办“前沿模型论坛”,以“确保安全、负责任地研发前沿人工智能(AI)模型”。

  据英国《金融时报》报道,这4家全球领先的AI企业将借助“前沿模型论坛”研究日益强大的AI工具,确定管控相关技术的最优方法,推动安全研究并为行业和决策者提供沟通渠道。

  最近数月,这些美国企业陆续研发出功能强大的生成式AI工具,这些工具可利用现有素材原创图像、文本和视频内容。这引发对盗版和侵犯隐私等问题以及“AI是否最终会取代人类从事多种职业”的担忧。

  微软副董事长兼总裁布拉德·史密斯说,创造AI技术的企业有责任确保它“安全、可靠,仍受人类管控”,创办论坛是集聚技术领域力量负责任地推动AI发展并应对挑战的“关键一步”。论坛创办者指出,只有少数几家企业能成为论坛成员,进而打造“能力超越现有最先进模型的大规模机器学习模型”。

  按《金融时报》说法,论坛宗旨显示其工作重点是如何应对生成式AI的潜在风险,但并未回应监管部门当下关注的版权、数据保护和隐私等事宜。批评人士质疑,这些技术巨头“抱团”的实际意图是躲避监管。

  美国华盛顿大学深入研究大语言模型的计算语言学者埃米莉·本德说,企业坚称推广AI技术安全研发是“维持自我监管的能力”,她对此“非常怀疑”。把公众注意力集中到对“机器取代人类”的恐惧会导致人们分散对数据窃取、监控等现实问题的关注,政府应从公众利益出发,在监管领域有所作为。(新华社微特稿)