2023WAIC观察:大模型勿成“脱缰野马” 人工智能何以“上善若水”?
- 来源:中国新闻网
- 时间:2023-07-08 05:20:06
中新网上海7月7日电 题:大模型勿成“脱缰野马” 人工智能何以“上善若水”?
中新网记者 郑莹莹
勿以恶小而为之,勿以善小而不为。对于正在飞速发展的人工智能,人类期待它为善去恶。
【资料图】
正在上海举办的2023世界人工智能大会(WAIC)上,大模型发展之热、人工智能发展之安全,备受业界关注。
2023世界人工智能大会于7月6日至7月8日在上海举办,伴随人工智能发展,机器人越来越“聪明”,通用人工智能的发展备受期待。中新网记者 汤彦俊 摄
不能让大模型成为“脱缰野马”
“大模型要监管和发展兼顾,我们不能盲目发展,让大模型变成脱缰的野马。”复旦大学教授、上海市数据科学重点实验室主任肖仰华7日在2023世界人工智能大会“数据要素与隐私计算高峰论坛”上说。
他指出,大模型的负面影响已经显现,比如对隐私的侵犯,“我们还是要建立大模型发展的安全底线、伦理标准和一些规范。”
另一方面,他也指出,我们不能因为有隐私方面的顾虑而放弃对大模型的应用,“从某种程度上说,大模型是一种先进生产力,是个人和企业都要积极拥抱的。我们要正视隐私问题,但也要积极应用大模型。”
如何在应用的同时保护用户隐私?他表示,需要建立系统性的防范体系。
一方面,我们要建立起用户对大模型隐私的安全意识,用户要意识到:在使用大模型过程当中,数据有可能被服务方收集。
另一方面,提供大模型服务的厂商要提升服务的规范性,给用户充分的知情权,要在用户完全授权的情况下,在合理范围内收集用户数据。
肖仰华说,大模型,尤其是生成式大模型发展起来后,对隐私带来了前所未有的挑战,“生成式大模型往往是一种概率化的生成,是从海量的语料中拼接式生成的,所以传统意义上的一些隐私侵犯认定在大模型时代就会失效,识别上困难,保护上更加困难。”
但在大模型领域,可以“用魔法打败魔法”。
肖仰华表示,在大模型隐私保护方面,除了技术、法规方法,我们还有一条很重要的路径——利用大模型自身的能力来保护我们的隐私,“其实大模型能力很强,可以识别出语料当中哪些内容是可能侵犯隐私的,我们已经有那么多大模型,我们可以把它用在保护隐私的场景。”
2023世界人工智能大会于7月6日至7月8日在上海举办,今年的主题是“ 智联世界 生成未来”。 中新网记者 郑莹莹 摄
人工智能何以“上善若水”?
“即使通用人工智能真正‘上善若水’,人与人工智能是否可以和谐共生,最终取决于人如何行为,而不是人工智能。”中国科学院自动化研究所研究员、人工智能伦理与治理研究中心主任曾毅7日在2023世界人工智能大会“聚焦·大模型时代AIGC新浪潮可信Al论坛”上说。
他将“人工智能与人类”“人类与蚂蚁”作了类比,指出:当我们的人工智能是人类,就像人类是现在的蚂蚁时,如果人类还在破坏环境、破坏其他生命,超级智能为什么要给人类生存的权利?人类没有给超级智能更多的理由。
他说这是一个开放性的问题,是一个科学问题,是一个社会问题,更是一个历史问题。
在曾毅看来,最开始的人工智能,当它没有接受任何人类数据的时候,它是一个无善无恶的算法。当它接触到了社会和人类的数据的时候,它变得有善有恶,这个时候它还不能明辨善恶。当与人类价值观校准、与环境价值观校准的时候,它变得知善知恶。
“我们最终希望的是人工智能可以为善去恶。”他说。
他还指出,人工智能的伦理道德既不应该仅由研究人工智能的工程师来定义,更不应该在实验室里主观臆想,而是需要群体智慧,需要更多公众参与定义。(完)
关键词: