OpenAI联合创始人 Ilya Sutskever 表示,当未来超级智能机器崛起时,人类可能会选择与人工智能融合。他甚至可能是第一个这样做的人。
OpenAI联合创始人 Ilya Sutskever 最近提出了一个引人注目的理论,他认为未来超智能机器崛起时,人类可能会选择与 AI 融合。
在与 MIT Technology Review 的交谈中,Sutskever 描述了我们应如何为可能超越人类智慧的机器做好准备。他提到这些超智能机器将「看到我们看不到的东西」。
这种思想促使他与 OpenAI 的科学家 Jan Leike 共同组建了一个团队,专注于确保 AI 模型仅按照人类的要求执行,而不会做出超出指令的行为。他们为这个过程命名为「超对齐」(Superalignment),也就是应用于超智能的「对齐」。
Sutskever 强调,保持超智能的检查非常重要,但这是一个「未解决的问题」,并不是很多研究人员正在讨论或工作的领域。「显然,我们必须确保任何人构建的超智能不会失控。」
在解决了失控 AI 的问题后,Sutskever 认为未来人类可能会选择与 AI 融合。虽然他承认这个想法在今天可能看起来「疯狂」,但在未来可能会成为现实。
他说:「许多人会选择成为部分 AI。起初,只有最大胆、最富冒险精神的人会尝试这样做。也许其他人会跟随,或者不会。」
在与采访者告别时,Sutskever 甚至表示,他可能会成为首批接受成为部分 AI 的人之一。
Sutskever 不是唯一警告 AI 可能超越人类智慧的专家。本月早些时候,被认为是 AI 三位教父之一的 Geoffrey Hinton 在接受 CBS News 60 Minutes 采访时表示,未来 5 至 20 年内,新兴技术可能会对人类构成威胁。
Hinton 指出,我们可能会首次面临比我们更聪明的「事物」,并警告未来 AI 可能会操纵人类。
他说:「它们将能够操纵人类,对吧?而且,由于它们从所有的小说、马基雅维利(意大利的政治学家、哲学家、历史学家、政治家、外交官。他是意大利文艺复兴时期的重要人物,被称为『近代政治学之父』,在政治哲学领域具代表性,他所著的《君主论》一书提出了现实主义的政治理论,其中『政治无道德』的权术思想,被人称为「马基雅维利主义」。)的所有书籍和所有的政治诡计中学到了东西,它们会非常擅长说服人们。它们会知道如何做。」
随着 AI 技术的飞速发展,专家的警告提醒了我们,应在推动技术进步的同时,也要深刻认识到潜在的风险,并寻求可能的解决方案。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。