近日,OpenAI前联合创始人伊利亚·萨茨克维尔(Ilya Sutskever)创立的新公司安全超级智能(SSI,Safe Superintelligence)宣布获得10亿美元融资,估值高达50亿美元。这标志着AI安全领域再掀波澜,引发业界广泛关注。
SSI成立仅三个月,估值50亿
SSI成立于今年6月,短短三个月内便获得了巨额融资,估值高达50亿美元。该公司由伊利亚与丹尼尔·格罗斯(Daniel Gross)和丹尼尔·利维(Daniel Levy)共同创立。其中,格罗斯曾领导苹果公司的AI计划,利维则是前OpenAI研究员。目前,SSI仅有10名员工,分别在美国加利福尼亚州帕洛阿尔托和以色列特拉维夫设有办公室。
聚焦AI安全,避开产品化路线
SSI的使命是开发“安全”的超级人工智能系统。与OpenAI等AI初创公司追求的产品化路线不同,SSI将全力专注于开发“安全”的超级人工智能。伊利亚表示,公司将以“一个目标、一个重点和一个产品为导向,直接追求安全的超级智能”。
顶尖人才助力,引发行业关注
伊利亚在学术界享有盛誉,作为OpenAI联合创始人和首席科学家,曾卷入2023年11月对OpenAI CEO山姆·奥特曼(Sam Altman)的短暂罢免事件。他的离开和创立SSI,某种程度上可以看作是对OpenAI的一种“背离”。此次融资的成功,也反映出市场对顶尖AI人才和其领导的AI产品的信心。
AI安全引发热议,争议将持续
SSI的成立和融资,引发了对AI安全的关注和讨论。一些人担心,超级智能的概念充满争议,过度关注可能会分散对当前AI问题的注意力。此外,如何平衡技术发展与伦理、安全等问题,也将是整个行业面临的重大挑战。
未来展望:AI安全成为焦点
尽管争议不断,但SSI的成立和融资成功,无疑为AI安全领域注入了新的活力。随着更多资源被投入到“安全”和“超级智能”AI的研发中,我们可能会在未来几年内看到一些突破性的进展。AI安全将成为未来AI技术发展的重要方向。
Views: 0