OpenAI前首席科学家伊利亚创立SSI新公司
Ilya Sutskever 的新征程
自今年五月离开 OpenAI 后,人工智能专家 Ilya Sutskever 的去向一直是业界关注的焦点。近日,他终于揭开了神秘面纱,宣布创立 Safe Superintelligence Inc.,一家专注于超级人工智能安全性的新公司。
安全为先:超级AI的终极目标
Safe Superintelligence Inc. 的目标是打造安全、强大的超级人工智能系统。与其他专注于商业化AI产品的公司不同,Sutskever 强调,他的新公司将专注于纯粹的研究,致力于解决超级AI带来的安全挑战。
“我们对安全的定义,更像是核安全,而非简单的‘信任与安全’,” Sutskever 在接受采访时表示。他认为,AI安全应该通过工程上的突破来实现,而非依赖于临时的防护措施。
强强联手,共筑安全AI未来
Sutskever 的两位联合创始人分别是前苹果公司AI负责人Daniel Gross和OpenAI前研究员Daniel Levy。Gross 是一位经验丰富的投资者,曾支持过多家知名AI初创公司。Levy 则是大型AI模型训练领域的专家,曾与 Sutskever 在 OpenAI 并肩作战。
回归初心,探索AI终极形态
Safe Superintelligence Inc. 的成立,在某种程度上是对 OpenAI 初心的回归:构建能够与人类匹敌甚至超越人类的通用人工智能。不同的是,Sutskever 的新公司将更加纯粹地专注于研究,而不受商业化目标的限制。
挑战与机遇并存
Safe Superintelligence Inc. 面临着巨大的挑战。超级智能的实现仍是未知数,而构建安全可靠的超级AI更是难上加难。此外,该公司还需要与资金雄厚的科技巨头竞争,吸引顶尖人才。
尽管如此,凭借 Sutskever 在 AI 领域的声望和强大的创始团队,Safe Superintelligence Inc. 依然备受期待。这家公司能否在超级AI领域开辟新的道路,让我们拭目以待。