OpenAI和Google DeepMind的几位现任和前任员工近日分享了一封公开信,警告先进人工智能的危险以及目前对从事人工智能技术的公司缺乏监督。
这些员工表示,人工智能开发面临许多风险,包括导致现有不平等的进一步根深蒂固、操纵和提供错误信息,以及失去对自主人工智能系统的控制,这封信称,这些风险可能导致人类灭亡。
现在或曾经在上述公司的员工在公开信中表示,人工智能公司有“强大的经济动机”来推进发展,并避免分享有关其保护措施和风险水平的信息。“我们认为不能依靠他们自愿分享它,”
公开信部分内容
信中写道:“只要政府对这些公司没有有效的监督,现任和前任员工就是少数能够让他们对公众负责的人。然而,广泛的保密协议阻止我们表达我们的担忧,除非是那些可能未能解决这些问题的公司。普通的举报人保护是不够的,因为它们侧重于非法活动,而我们关注的许多风险尚未受到监管。”
员工最终呼吁人工智能公司为公开谈论人工智能的风险提供可靠的举报人保护。其内容包括:
1、避免制定或执行协议,以防止因风险相关问题而受到批评。
2、为员工提供可验证的匿名反馈途径,以向董事会、监管机构和具有相关专业知识的独立组织提出与风险相关的问题。
3、支持公开批评的文化。在商业秘密受到保护的同时,允许员工向公众、董事会、监管机构等提出与技术相关的风险问题。
4、避免在其他流程失败后对公开分享与风险相关的机密信息的员工进行报复。
共有13名员工签署了这封信,其中包括7名前OpenAI员工、4名现任OpenAI员工、1名前Google DeepMind员工和1名现任Google DeepMind员工。OpenAI威胁员工,如果员工敢于直言不讳,就会失去既得股权,并迫使他们签署严厉的保密协议,以压制批评。