OpenAI预测超智能AI十年内出现:正研究用AI来监督AI
前面一段时间,小编向大家介绍过,随着最近GPT-4语言模型的正式投入使用,ChatGPT也带来了全新的插件——网络浏览器和代码解释器,赋予ChatGPT使用工具、联网、运行计算的能力。
更新后,根据全球媒体的反馈来看,GPT-4相较于GPT-3.5确实有很大的性能提升,但越来越快的发展速度可以加重了用户对于个人信息安全的担忧,并且对ChatGPT是否可控提出了质疑。此前,据搜狐科技报道称,Meta公司负责人马克・扎克伯格(Mark Zuckerberg)、OpenAI 首席执行官萨姆・阿尔特曼(Sam Altman)公开表示,支持欧盟市场专员蒂埃里・布雷顿(Thierry Breton)推动的人工智能技术监管方案。据悉,扎克伯格和布雷顿在一场会议中,就政府评估 AI 风险、以及监管 AI 技术发展达成一致意见。阿尔特曼随后也表示支持欧盟的AI监管方案,并称很感谢欧盟机构的重视和远见,期待与布雷顿合作,帮助其在欧洲推行满足本土市场需求的服务。此外,布雷顿还会见英伟达首席执行官黄仁勋、Twitter 所有者埃隆・马斯克和新任 Twitter 首席执行官琳达・亚卡里诺,要求共同探讨和推进AI监管。近日,据相关媒体消息,当地时间周三,ChatGPT的开发者OpenAI表示计划投入更多资源并成立新的研究团队,研究如何确保AI对人类的安全性,最终实现用AI来监督AI。
OpenAI 联合创始人伊利亚・苏茨凯弗和AI对齐负责人简・莱克在官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。目前,我们还没有解决方案来操纵或控制一个可能的超智能AI,并防止其变成无赖。”博文预测,超智能AI,即相比于人类更智能的系统,可能会在未来10 年中出现。人类需要比目前更强大的技术来控制超智能AI,因此需要在“AI对齐研究”方面取得突破,确保人AI对人类持续有益。AI对齐是AI控制中的主要问题,即要求AI的目标和人类的价值观与意图保持一致。
作者写道,OpenAI将在未来4年内,将算力的20%专门用于解决这方面问题。此外,该公司将组建新的“超对齐”团队来组织这方面的工作。该团队的目标是开发达到“人类水平”,由AI驱动的对齐研究员,随后通过庞大的算力推动其发展。OpenAI表示,这意味着将使用人工反馈来训练AI系统,通过训练AI系统来协助人工评估,最终训练AI系统来进行实际的对齐研究。不过,人工智能安全的倡导者康纳・莱希表示,OpenAI的计划存在根本性缺陷,因为最初的人类水平AI可能会失控并造成严重破坏,而这将迫使研究者去解决AI安全问题。他在接受采访时表示:“在构建人类水平的智能之前,必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是个特别好的、安全的计划。”目前全世界对于AI的安全性关注度非常高,不少消息和相关措施也在快速发布,感兴趣的小伙伴可以保持关注。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 490382048@qq.com 举报,一经查实,本站将立刻删除。