周鸿祎谈叫停GPT5:不发展才不安全!GPT或发生智力突变
3月30日,360集团创始人、董事长周鸿祎在微博发文称,“昨天马斯克呼吁暂停GPT-5的研发。我自己是做安全的,但我坚定地认为,不发展才是最大的不安全。 ”中国发展高层论坛2023年年会,周鸿祎表示近期网络上爆炒失业问题,他表示会被GPT淘汰的,是到现在还没用过或者不会用GPT的人。
关于马斯克的请愿信,周鸿祎表示并不了解内幕,但猜测是GPT的进化路上出现了超乎人类想象的现象。他认为GPT-4 已经是超级人工智能的雏形,早就出现了一些连它的创造者都无法解释的现象,比如涌现、幻觉、能力的迁移和逻辑增强。就像猿猴进化成人,不知道在哪个节点会发生智力的突变。
日前,由图灵奖得主、深度学习三巨头之一约书亚·本吉奥(Yoshua Bengio),埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。他们在公开信中呼吁暂停高级人工智能开发,直至此类设计的共享安全协议经由独立专家开发、实施和审核。此外,他们还在信中呼吁开发人员与政策制定者就治理和监管进行合作。周鸿祎谈叫停GPT5:不发展才不安全!
此外,签名人还包括苹果联合创始人史蒂夫·沃兹尼亚克、2020年美国总统选举民主党初选候选人杨安泽、AI经典教科书《人工智能:一种现代方法》作者Stuart Russell、AI领军公司DeepMind的一众研究人员等。
对于人类如何与AI共处,目前的观点大致分为三派:“降临派”认为人类应该把知识献给AI,甘心做硅基文明的引导程序;“幸存派”有点躺平,认为只要我能生存,未来跟Al以什么样的方式共处都行;“拯救派”认为AI不是来取代人类的,而是来升级人类的,人类将迎来工业革命之后最大的生产力解放。
周鸿祎表示,比较认同“拯救派”的观点。人类身小力薄,从来都不是靠体能和智能的进化站在食物链顶端的,靠的是不断发明和使用工具。GPT就是这个时代最伟大的工具。人类可以借助它的能力大幅提升生产效率,提高个体自身的能力,普通人也能解锁专业技能,发挥聪明才智。通过人机协作的方式,我们将变成史上最强人类,智人2.0。
3月29日,周鸿祎现场演示了360版GPT,在回答周鸿祎为什么总谈论GPT话题时,它认为周鸿祎既表示GPT是场工业革命,又担心它对人类发展造成风险,其观点矛盾。周鸿祎点评称,生成式AI和搜索的最大的区别是,搜索是严格按照关键字匹配,而生成式AI和人类大脑一样,能够联想,有自己的主观观点。
周鸿祎谈叫停GPT5:不发展才不安全!
转载:中•华•网