第462章 离职与围攻(2 / 2)

“鹅厂?”奥特曼努力回想,在脑中找到坐标。</P>

是他们啊。</P>

“那我没有问题了,祝你好运。”奥特曼眉毛一挑,彻底放下心来。</P>

他知道鹅厂,是一家华夏的互联网公司。</P>

他们有庞大的用户群,有很多赚钱的游戏,还有不错的电商平台……</P>

很快,苏茨克维离开openAi,加盟鹅厂的消息传遍了AI圈和硅谷。</P>

很多人对他的选择表示不理解和质疑。</P>

“他不是有效利他主义者吗?”</P>

“鹅厂有什么?有钱,有很多的钱,在那里,苏茨克维先生可以拿到谷歌也给不了的薪水。”</P>

“鹅厂是想让他们的游戏对话更智能化,吸引更多的用户打开钱包,然后赚更多的钱。”</P>

“苏茨克维终于还是成为了金钱的俘虏,他对openAi的薪水感到不满。”</P>

“我理解他的“超级对齐”,因为他在openAi拿的薪水没有与他的心理要求对齐。”</P>

一直以来。</P>

硅谷、AI圈,乃至openAi公司内部,都对所谓的“超级对齐”不屑一顾、嗤之以鼻。</P>

因为这会严重阻碍Ai的发展和成熟,进而影响赚钱。</P>

什么?</P>

“超级对齐”战略生效后才开放使用?</P>

不行,他们要的不是安全,而是暴富。</P>

最好是一夜暴富,财富自由。</P>

只有暴富和财富自由才是安全。</P>

其他全是狗屁。</P>

面对质疑、讥讽、挖苦,苏茨克维公开表示:</P>

“鹅厂邀请我,是认同我们的“超级对齐”观点。”</P>

“他们认为AGI必须严格监管,不能危害人类。”</P>

好吧,这句话惹来了群嘲。</P>

这次群嘲的理由更专业。</P>

未来主义网站认为:“这是一个蹩脚的借口。虽然苏茨克维先生过去十年,为AI做出了杰出的贡献……”</P>

“但他应该承认,这项技术远远低于人类智慧,更不用说有意识的观察世界。”</P>

斯坦福大学计算机教授观点更为直接:“AI永远不会像人类一样拥有意识和智能。”</P>

“AI的运行基于算法,它们的功能与人类的情感、思维有着本质区别。”</P>

《自然》网站专门就意识问题,采访了纽约大学神经科学家杜勒。</P>

杜勒坚持认为:“意识只可能存在于生物体内,即便模仿生物产生意识的机制,AI系统也不会有意识。”</P>

澳洲《对话》杂志也来凑热闹:“ai系统真的能进行思考和理解吗?那是不可能的。”</P>

《神经科学》杂志论文认为:“尽管卷积神经网络算法让AI系统具备了复杂的反应功能。”</P>

“但这些系统并不具备人类所拥有的具体经验和神经机制。”</P>

“神经元是真实的物理实体,可以生长和改变形状,而AI系统中的参数,只是无意义的代码片段。”</P>

“不能简单将AI的一些复杂功能等同于人类意识。”</P>

arxIV网站一篇论文称:“谷歌最新的语言模型没有通过图灵测试。”</P>

此外,硅谷的投资者们也将年初在纽约召开的意识科学年会有关论文搬了出来:</P>

“人类大脑神经元产生意识的机制并未被发现!”</P>

言下之意,人类神经元产生意识的原因都不清楚,怎么确定AI系统能够产生意识了?