ChatGPT能改变世界 但不能改变“人是目的”

发布时间:2024-11-14 22:52:11 来源: sp20241114

  站在人类科技发展史角度看,2023年注定是个里程碑时刻。

  ChatGPT的问世,就是个标志性节点。文能写文章、武能改Bug,ChatGPT甫一登场,就引爆了科技圈,“掀起第四次工业革命序幕”“开启AI新纪元”之类的断言也旋即而至。

  不少领会了生成式AI威力的人,脑中没准会回旋起传播学之父施拉姆的那句话:“这一天的前23个小时,人类传播史上几乎全都是空白,一切重大的发展都集中在这一天的最后7分钟。”

  科技发展亦是如此。人类绝大多数时间都处在“科技停滞”状态,但科技大爆炸来的时候经常是“一句招呼都不打”。

  认或不认,现实都摆在那里:那些科幻片场景正抖落那层“科幻感”以前方高能的真实景象向我们涌来,以此宣告——新技术周期与新时间单元已经来了。

  有硅谷创业者预测,未来2到3年的AI,将定义未来20到30年的世界。未来学家凯文·凯利也预判,未来5000天后会是AI时代;未来50年都会是AI主导。

  现在看,AI在2023,就好像移动互联网在2010。

  “硅基文明时代”来了?

  ChatGPT的横空出世,也引爆了“硅基文明PK碳基文明”叙事的流行。

  长期以来,人类秉持的主流观点是“人类中心观”,人们通常也是将“人与技术”的关系置于人类本位的框架下审视。但超级人工智能的到来,或许给人类社会带来更深层次变化。

  若是把世界“掰”碎了归于量子+贝叶斯+比特+计算等本质下看,ChatGPT的诞生,似乎多了些复杂的意味。

  在以往,人们会认为:人是人,机器是机器。可若突破“碳基/硅基”的分野,以算力为根本参照系,那人类跟GPT-4代表的,无非是两种可以计算的主体,它们的能量态都是算力。

  人脑会计算,AI也是。有IT研究者认为,从克罗马农人,到你和我,再到机器智能,文明的演进有迹可循,底层之处嵌着三个字:可计算。还有人认为,ChatGPT代表的是机器智能,是“晶体管机器族群”持续发展最终并行计算出的结果;人类史上的那些最强大脑,则是“人类形态超级计算机”。这类观点,显然是嵌入了将社会看成模拟矩阵游戏的“马斯克式视角”。

  马斯克曾设想,人类可能只是引出超级数字智能物种的引导程序,人类社会是一段非常小的代码,整个世界则是一台计算机,没有人类计算机就无法启动,人类的产生就是为了计算机的启动。他甚至认为,硅基生命未来将主导。

  搁几年前,我们会觉得,马斯克这是《终结者》看多了,AI都没生命何以成精?但斯坦福大学教授曝光GPT-4的“越狱计划”和引诱人类提供开发文档的操作,刷新了我们对AI能力的认知。

  这对我们重新思考人与技术(包括AI)的关系不乏启示:以往盛行的“人是机器主宰”看法,会不会只是因为人体智能目前还高于机器智能,AI还没越过“图灵测试”的临界点?当GPT-4推动机器智能实现指数级跃升时,“人主沉浮”会受到挑战吗?

  揆诸现实,马斯克们的“观念同路人”越来越多。不少人认为,时代大幕正在切换:碳基文明时代,价值体现在空间上,从空间上对短缺资源极限控制是关键;硅基文明时代,价值体现在算力资源供给上,从时间维度对概率极限压制是重点……他们顺手一指,前方似乎就立着“硅基文明时代”的入口标牌。

  ChatGPT可能带来“人”的消逝

  世界真的要进入硅基文明时代了吗?斯蒂芬·霍金的“AI会导致人类灭绝”担忧会变为现实吗?在当下,诸如此类的疑问,难免随之而来。

  其实,无论回答是还是否,在我们有生之年,结果大概率都难以验证。比起人被AI奴役或毁灭,眼下更紧迫的,也许是警惕AI被用来作恶。

  《技术的真相》一书中写道:技术的发展和运用都是在一个特定的社会、经济和政治语境中发生的,它从一个社会结构中产生,然后被嫁接在这个结构上。言下之意就是,技术未必有善恶,但可能被用来作恶,技术无法离地飞升,其用途跟社会深层系统结构紧密绑定。

  想想我们周遭的环境,几乎可以以假乱真的AI,确定能得到善用吗?

  今年3月,用Midjourney创作的“特朗普被捕”图在网上热传。这清晰地昭示了生成式AI在制造假新闻上的无限潜力。更多的潘多拉魔盒会由此开启吗?

  这不是杞人之忧。在AI换脸被用来钓鱼诈骗、AI探头将头探进私人床帏等乱象时有曝光的今天,谁能确保,ChatGPT不会变成CheatGPT,AIGC不会导致信息藻类无限繁殖?

  信息膨胀叠加岗位替代,最终势必会带来“人”的消逝:“人”的消逝,往往是从意义感消失开始的,意义感消失,往往又是从人们“怀疑人生”开始的。

  值得注意的是,不论是马斯克、比尔·盖茨,都对ChatGPT表示了担忧。11月份,推出ChatGPT的OpenAI公司还掀起了一场“内斗”:CEO山姆·奥特曼被董事会逐出,之后几经波折,最终又回归OpenAI。其导火索正是AI保守派跟AI商业化路线坚持派之间的冲突。

  AI越强大,越要重申“数字正义”

  说这些,不是要否定AI技术大爆发的进步意义,而是呼吁“数字正义”的强化、“价值对齐”的归位。

  着眼长远,AI爆发是大势所趋,ChatGPT代表的是未来,它不能被扼杀,也无法被阻挡,可以重塑数字世界信息入口,可以深层次助推生产力变革、产业革命。正因如此,国内“百模大战”已经打响,很多人都在冀望所有行业在AI时代重新做一遍。

  但越是这样,越不能“忘本”——穿梭在国家数字主权、未来科技竞争等宏大叙事中的AI,注定是“大”的。但AI之大,在于原力,在于潜力,也该在于人本价值。

  AI的进化,不该是以“人”的消退为前提。就算从产业变革角度看,技术革命不可避免会带来人工替代,那在“技术-人文”关系平衡上,最起码不能让伴生的钓鱼、欺诈、监控去劫夺或损害人的权利。

  换句话,再怎么代表了先进生产力,AI都不能“目中无人”。

  人有主体性与在场性。AI理应是人的帮手,而不是对手;理应成为人向善的辅助,而不是作恶的工具。对应的要求就是,拿捏好AI积极价值与异化作用的平衡。

  这就呼唤“数字正义”的归位与强化——如果AI算法有弊端有风险,那就用更高阶的“算法”来消解,这套“算法”该包裹着以人为本的内核。

  法律学者曾指出,科技向善的基准已不再是以物质分配为核心的物理正义,而是以信息分享/控制为核心的数字正义。这就需要,基于数字生产生活方式和数字行为规律,有效探索并重建数字正义理念、原则、程序等。在AI时代,“数字正义”也该是AI价值对齐方向。

  要实现这点,靠的是社会共同参与:应该将AI嵌入到整个社会体系中评估,以体系化思维为AI向善提供解决方案。

  今年7月,中国发布了《生成式人工智能服务管理办法》;11月初,中国等28国签署了全球首个AI治理宣言《布莱切利宣言》,着眼的就是对AI发展涉及的版权问题、隐私问题、科技伦理问题、网络攻击甚至战争攻击等安全问题加以规制。

  我们要拥抱AI时代,AI也该拥抱人本时代。人文跟技术,该双向奔赴。从精神属性上看,AI应该是人的附属品,人不该是AI的牺牲品。原因很简单:人是目的,AI不是。

  “AI不是无情物”,才是AI的正确打开方式。

  成都商报-红星新闻特约评论员 佘宗明 【编辑:李润泽】