发布时间:2024-10-31 08:04:01 来源: sp20241031
中新社 博鳌3月28日电(记者 王晓斌)伴随人工智能(AI)的迅猛发展,人们的“AI焦虑”也与日俱增。博鳌亚洲论坛2024年年会多个分论坛议题涉及AI,中外专家支招如何应对“AI焦虑”。
对于普通人来说,“AI焦虑”与自己手中的“饭碗”相关——我的岗位会被AI取代吗?
3月27日,博鳌亚洲论坛2024年年会举办“AIGC改变世界”分论坛。 中新社 记者 骆云飞 摄科大讯飞副总裁刘聪认为,未来工作岗位的变化不是AI替代人,而是因为有了AI,岗位结构发生了变化。因此,他建议不管是企业还是个人,都应主动拥抱AI,“未来强大的不是AI,而是掌握了AI的新人类”。
“既然不能拥有最底层的技术,那就要比其他人更快地用上人工智能。”小i集团董事局主席兼CEO袁辉建议,各行各业从业者,若要在下一个阶段领先一步,就得快人一步用上人工智能,“不要犹豫”。
普通人如何掌握“高大上”的AI工具?目前市面上流行的AI,大都需要使用者以提示词和生成选项等形式与之交互,这无疑抬高了人们熟练掌握AI的门槛。
中国工程院院士、清华大学智能产业研究院院长张亚勤介绍,如今AI大模型走向自主智能,可以制定目标、规划任务、自我制定路径、自我完成方案、自我编码。
这意味着,普通人能够让AI教自己如何更好地使用AI。
“我不太相信我们自己创造人工智能将我们完全替代,我担心一部分掌握人工智能的人会占其他人的便宜。”高通公司中国区董事长孟樸关注如何让相关技术大量地、快速地普及。他看好面向教育领域垂直场景的行业大模型,“利用人工智能能够把最新的技术、最新的教育带到乡村,让所有的人都能掌握这些技术”。
“任何技术创新和行业发展离不开全球合作和行业合作。”孟樸建议各国通力合作制定AI相关标准,使得AI交互方法在全球通用。
业界也有“AI焦虑”。除了卷算力、拼算法,不少专家担忧AI带来的安全威胁。
去年,业界专家先后联署发布了两封公开信,呼吁暂停开发最大的人工智能模型六个月,警告AI可能给人类带来“灭绝风险”。在加州大学伯克利分校计算机科学系教授斯图尔特·罗素看来,这种担忧带来了正面效果,即“唤醒”各国政府商讨对AI的监管原则,此后一些国家还制定了相关监管法规。
斯图尔特·罗素认为,AI安全的核心问题是人类如何安全地与之共存,这个问题目前依然没有明确答案。他举了一个存在于科幻电影中的反例:因为安于被智能机器照顾,人类不再知道如何管理自己的文明。
“人工智能并不是人类历史上首次发明出的危险的东西。”芬兰前总理埃斯科·阿霍说,我们就算不了解科技带来的风险,我们也应该了解人性。因而人们可以从教育入手,对未来技术进行一定的引导和约束。
“现在最危险的事情是,我们没有清晰阐述人工智能与人类智能的差别,就把它当作一种知识、一种世界观去教授给学生。”中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅说,人类与AI最大的区别是人类会反思自身存在的意义,人终其一生都在不断完善自我、追求自我。
曾毅提醒,人们在接触人工智能之前,应先学习哲学和认知心理学,“当人工智能越来越强大的时候,你应该把它当成一个工具去追求自我”。(完)
【编辑:胡寒笑】